Corona und häusliche Gewalt: Studie der TU München

An der TU München wurde zu häuslicher Gewalt in Corona Zeiten geforscht. Die Pressemitteilung:

Erste große Studie zu Erfahrungen von Frauen und Kindern in DeutschlandHäusliche Gewalt während der Corona-Pandemie

Rund 3 Prozent der Frauen in Deutschland wurden in der Zeit der strengen Kontaktbeschränkungen zu Hause Opfer körperlicher Gewalt, 3,6 Prozent wurden von ihrem Partner vergewaltigt. In 6,5 Prozent aller Haushalte wurden Kinder gewalttätig bestraft. Dies zeigt die erste große repräsentative Umfrage zu häuslicher Gewalt während der Corona-Pandemie. Waren die Frauen in Quarantäne oder hatten die Familien finanzielle Sorgen, lagen die Zahlen deutlich höher. Nur ein sehr kleiner Teil der betroffenen Frauen nutzte Hilfsangebote.

Während der Ausgangs- und Kontaktbeschränkungen zur Bekämpfung der Corona-Pandemie wuchs die Sorge, dass Frauen und Kinder unter häuslicher Gewalt leiden könnten. Doch da nicht alle Opfer Anzeige erstatten oder Hilfsangebote nutzen, blieb die tatsächliche Dimension im Dunkeln.

Janina Steinert, Professorin für Global Health an der Technischen Universität München (TUM), und Dr. Cara Ebert vom RWI – Leibniz-Institut für Wirtschaftsforschung haben deshalb rund 3.800 Frauen zwischen 18 und 65 Jahren online nach ihren Erfahrungen befragt. Die Studie ist hinsichtlich Alter, Bildungsstand, Einkommen, Haushaltsgröße und Wohnort repräsentativ für Deutschland. Die Frauen wurden zwischen 22. April und 8. Mai 2020 nach dem vorangegangenen Monat gefragt, also der Zeit der strengsten Kontaktbeschränkungen. Da manche Befragten aus Scham möglicherweise nicht zutreffende Antworten geben, wandten die Wissenschaftlerinnen bei besonders stigmatisierten Formen der Gewalt, z.B. sexueller Gewalt, eine anerkannte indirekte Fragemethode an.

Fast 5 Prozent der Partner regulieren die Kontakte der Frauen

Diese erste große deutsche Studie zu diesem Thema zeigt:

  • Körperliche Gewalt: 3,1 Prozent der Frauen erlebten zu Hause mindestens eine körperliche Auseinandersetzung, zum Beispiel Schläge. In 6,5 Prozent der Haushalte wurden Kinder körperlich bestraft.
  • Sexuelle Gewalt: 3,6 Prozent der Frauen wurden von ihrem Partner zum Geschlechtsverkehr gezwungen.
  • Emotionale Gewalt: 3,8 Prozent der Frauen fühlten sich von ihrem Partner bedroht. 2,2 Prozent duften ihr Haus nicht ohne seine Erlaubnis verlassen. In 4,6 Prozent der Fälle regulierte der Partner Kontakte der Frauen mit anderen Personen, auch digitale Kontakte, zum Beispiel über Messenger-Dienste.

Ein Vergleich dieser Zahlen mit Daten aus der Zeit vor der Pandemie wäre nicht aussagekräftig, da bisherige Studien nach Gewalterfahrungen innerhalb längerer Zeiträume gefragt haben, nicht aber nach einem Zeitraum weniger Wochen.

Risikofaktor Finanzsorgen

Höher war die Zahl der Opfer sowohl bei Frauen als auch Kindern, wenn

  • sich die Befragten zu Hause in Quarantäne befanden (körperliche Gewalt gegen Frauen: 7,5 %, körperliche Gewalt gegen Kinder: 10,5 %).
  • die Familie akute finanzielle Sorgen hatte (körperliche Gewalt gegen Frauen: 8,4 %, körperliche Gewalt gegen Kinder: 9,8 %).
  • einer der Partner aufgrund der Pandemie in Kurzarbeit war oder den Arbeitsplatz verloren hatte (körperliche Gewalt gegen Frauen: 5,6%, körperliche Gewalt gegen Kinder: 9,3 %).
  • einer der Partner Angst oder Depressionen hatte (körperliche Gewalt gegen Frauen: 9,7 %, körperliche Gewalt gegen Kinder: 14,3 %).
  • sie in Haushalten mit Kindern unter 10 Jahren lebten (körperliche Gewalt gegen Frauen: 6,3 %, körperliche Gewalt gegen Kinder: 9,2 %).

Aus diesen Risikofaktoren leiten die Wissenschaftlerinnen mehrere Empfehlungen für bestehende und eventuelle künftige Ausgangs- und Kontaktbeschränkungen während einer möglichen „zweiten Welle“ der Pandemie ab: „Es sollten Notbetreuungen für Kinder geschaffen werden, die nicht nur Eltern in systemrelevanten Berufen zur Verfügung stehen“, sagt Janina Steinert. „Da Depressionen und Angstzustände das Gewaltpotential erhöhen, sollten psychologische Beratungen und Therapien auch online angeboten und ohne Hürden genutzt werden können. Frauenhäuser und andere Stellen, die Hilfen anbieten, müssen systemrelevant bleiben.“

„Hilfe auch online anbieten“

Die Wissenschaftlerinnen fragten zudem, ob die betroffenen Frauen Hilfsangebote kennen und genutzt haben:

  • 48,2 Prozent der Opfer kannten die Telefonseelsorge, 3,9 Prozent hatten dort angerufen.
  • 32,4 Prozent kannten das Hilfetelefon „Gewalt gegen Frauen“, 2,7 Prozent hatten sich dorthin gewandt.
  • 44,3 Prozent kannten das Elterntelefon, 21,5 Prozent hatten dort Hilfe gesucht.
  • 5,5 Prozent kannten die Aktion „Codewort Maske 19“, bei der Apotheken die Behörden verständigen, wenn eine Kundin dieses Codewort sagt. 1,8 Prozent hatten diese Möglichkeit genutzt.

„Wenn Frauen durch ihre Partner intensiv kontrolliert werden, können sie telefonische Beratungsangebote nur schwer nutzen. Hilfe sollte deshalb auch online angeboten werden, per Chat, Messenger und E-Mail“, empfiehlt Cara Ebert. „Die bestehenden Hilfsangebote müssen zudem besser in der Öffentlichkeit beworben werden, zum Beispiel durch große Plakate in Supermärkten und Apotheken sowie durch Onlineanzeigen.“

Schade, dass nur Frauen befragt worden sind. Und auch etwas merkwürdig, dass sie meinen mit einer reinen Befragung der Frauen Gewalt an Kindern feststellen zu können.

Etwas mehr findet man hier

Dort heißt es zur Methode der Befragung:

Um das Dunkelziffer-Problem zu umgehen, wurde häusliche Gewalt zusätzlich mithilfe einer komplexeren indirekten Messmethodik (einem “Listenexperiment”) erfasst. Hierbei werden Fragen zu Gewalterfahrungen nicht direkt gestellt. Stattdessen erhalten Studienteilnehmer-innen eine Liste mit verschiedenen Aussagen und müssen angeben, wie viele davon auf sie zutreffen (z.B., „3 von 5“). Dabei werden die Befragten per Zufallsprinzip in zwei Gruppen
eingeteilt:
● Gruppe 1: 4 neutrale Aussagen + 1 sensible Aussage (z.B. “Ich wurde innerhalb des letzten Monats von meinem (Ehe-)Partner zum Geschlechtsverkehr genötigt.“)
● Gruppe 2: dieselben 4 neutralen Aussagen, keine sensible Aussage
→ Die Differenz zwischen den durchschnittlichen Anzahlen zutreffender Antworten gibt dann Aufschluss über die tatsächliche Häufigkeit von Gewalt, ohne dass Rückschlüsse auf die einzelnen Antworten der individuellen Teilnehmenden möglich sind

Ist das eine erprobte Methode? Bei 3800 befragten Frauen würde die Hälfte ja schon rausfallen, da sie nur neutrale Aussagen bekommt.

Dann werden anscheinend ja die Aussagen noch einmal aufgeteilt, da ja eine vielzahl von kritischen Fragen vorhanden war, von denen anscheinend immer nur eine kritische dabei war.

Man wüsste auch nicht ob bei „3 von 5“ tatsächlich die kritische Aussage enthalten ist. Und dann kommt man auf „3.6%“. Vielleicht habe ich das System noch nicht ganz durchschaut, aber da scheinen mir relativ wenige Frauen, die eine „Nötigung zum Sex“ angeben je nach Betrachtung und Wertung ganz verschiedene Prozentzahlen ergeben zu können.

Listenexperimente scheinen ja durchaus häufiger eingesetzt zu werden, dennoch finde ich es hier nicht sehr klar. Es müsste ja eigentlich recht große Spannbreiten vorhanden sein innerhalb derer sich die Ergebnisse bewegen. Freue mich über Anmerkungen in den Kommentaren.

Aus meiner Sicht ist auch „Genötigt“ ein zu ungenauer Begriff für eine Vergewaltigung. Ich könnte mir auch vorstellen, dass einige darunter auch ein gewisses nörgeln, dem man dann wenig motiviert nachgibt, verstehen.

Auch bei den übrigen Punkten wäre die konkrete Frage interessant:

Verbaler Konflikt zB kann ja von beiden ausgehen, ebenso wie körperlicher Konflikt. Und 6,24% sollen ihr Haus nicht verlassen haben dürfen?

Ein paar Tweet der Forscherinnen:

 

Immerhin sagt sie da auch, dass der Konfidenzintervall riesig ist. Allerdings finde ich die Grafik da etwas unklar. Der Intervall scheint sich zwischen 3% und 20% zu bewegen. Das wäre dann ja wenn ich das richtig verstehe – was nicht der Fall sein muss – nichts wert.

 Bei der Berechnung eines Konfidenzintervalls umschließen dessen Intervallgrenzen in 95 % der Fälle den wahren Parameter und in 5 % der Fälle nicht. Das Konfidenzintervall ist so konstruiert, dass der wahre Parameter } mit Wahrscheinlichkeit  überdeckt wird, wenn das Schätzverfahren für viele Stichproben wiederholt wird.  (…)  Ein Vorteil gegenüber Punktschätzern ist, dass man an einem Konfidenzintervall direkt die Signifikanz ablesen kann. Ein für ein vorgegebenes Konfidenzniveau breites Intervall weist auf einen geringen Stichprobenumfang oder eine starke Variabilität in der Grundgesamtheit hin.

Hier wäre dann vermutlich die Stichprobenumfang zu gering, jedenfalls aber eine geringe Signifikanz gegeben (?)

 

Letztendlich wird man wohl die eigentliche Studie abwarten müssen, aber da die Ergebnisse ja schon jetzt in der Presse diskutiert werden stell ich sie hier auch mal zur Diskussion

136 Gedanken zu “Corona und häusliche Gewalt: Studie der TU München

  1. Here we go again…
    Die Methode erscheint mir zweifelhaft. Und spätestens bei fast 4 Prozent Vergewaltigungen hätten die Forscherinnen misstrauisch werden müssen. In Deutschland liegt die Rate für Vergewaltigung bei 0,01 Prozent. Das würde bedeuten dass man in dieser Umfrage eine Vervierhundertfachung der normalen Zahlen festgestellt hat. Und spätestens hier sollte jeder vernunftbegabte Mensch seine Methode noch einmal kritisch betrachten. Stattdessen sind die Ladies vermutlich losgerannt und haben Heureka geschrien weil sie was ganz geheimes gefunden haben….
    Dass man nur Frauen befragt hat ist dann der finale Sargnagel.
    Ich bin überzeugt die Medien werden ebenfalls nicht einmal im Ansatz kritisch darüber berichten.

    • „Stattdessen sind die Ladies vermutlich losgerannt und haben Heureka geschrien weil sie was ganz geheimes gefunden haben….“

      Nein, sie haben nur gefunden, was sie eh schon erwartet hatten.
      Die Frage lautete vermutlich: „Haben Sie in den letzten Wochen Geschlechtsverkehr gehabt, obwohl sie eigentlich keine Lust hatten?“
      Viele Frauen haben das wahrheitsgemäß mit „Ja“ beantwortet und nicht geahnt, dass das von den Fragendinnen als „Vergewaltigung“ verbucht werden würde.
      Frauen sind ja so verängstigt, dass sie sich die Situation aus Angst vor Prügel vom eigenen Mann nie nicht als Vergewaltigung eingestehen würden. Dazu bedarf es der Inquisatorinnen.

      • Verdammt, danke das war ein Stellenfehler. Kriminalstatistik. 2013 in Deutschland 9,2 pro 100.000 EW. Macht 0,0092 Prozent. Also wenn man annimmt, dass die 3,6 Prozent für das ganze Jahr gelten (also jeden Monat die gleichen Frauen betroffen sind) dann ist das Faktor 391. Ziemlich unwahrscheinlich. Sollten jeden Monat einige der Opfer wechseln wäre man weit über dem Faktor.

  2. Nachtrag: Die eine hat Politikwissenschaft und die andere VWL studiert. Beide waren zwischenzeitlich am Lehrstuhl für Entwicklungsökonomie in Göttingen. Ich habe den Verdacht, dass das ein politisch wenig neutraler Lehrstuhl ist. Zumindest war zu meinen Studentenzeiten Göttingen bei sowas ultra „progressiv“, kritisches nachfragen war da nicht so angesagt.

  3. Hm, die Frauen wurden online befragt. Bei 4,6% kontrolliert der Mann die Kontakte…

    OK, auf so unwissenschaftliche Zahlensammlungen kann man nur unwissenschaftlich antworten:
    Nur 3,1% erlebten körperliche Gewalt? Wow, bei der EU-Studie vor ein paar Jahren waren es noch 30%…

    • Das liegt daran, dass es bei der EU-Studie um Gewalt nicht nur durch den Partner, sondern Gewalt generell ging (unabhängig davon, wer der Täter oder die Täterin (!) war), wobei „schubsen“ bereits unter die Definition von Gewalt im Sinne der Studie fiel. Außerdem ging es nicht um einen bestimmten Zeitraum, sondern über die gesamte Lebenszeit.
      Fast immer, wenn diese Studie in den Medien erwähnt wird, werden diese beiden Tatsachen weggelassen.

    • „Frauen wurden online befragt“

      online befragt bedeutet normalerweise, daß die Befragten selbständig und ohne Überwachung durch einen Interviewer (oder sonst jemanden) den Fragebogen ausfüllen und der Fragebogen durch die Sitzung identifiziert wird. Wie paßt das mit einer angeblich repräsentativen Umfrage zusammen? Dabei werden i.d.R. die Leute am Telefon belästigt, hier müßte man den Befragten einen eindeutigen Schlüssel am Telefon durchgegeben haben, d.h. man kann dann den Bogen eindeutig der angerufenen Person zuordnen.

  4. Für das Forum: Man kann die Studie bisher nicht einsehen, sondern nur in einer Zusammenfassung.
    Trotzdem wurde bereits eine Pressemitteilung herausgegeben, aus der (natürlich!) die Presse bereits Gewissheiten in Artikeln gemacht hat.
    Es versteht sich von selbst, Männer wurden nicht gefragt – die Studie suggeriert damit bewusst, Gewalt gegen Männer findet nicht statt und Gewalt gegen Kinder geht vom Mann aus.

    Ich bin bei der Lektüre über genau die gleichen Stellen gestolpert wie Christian auch. Wichtigste:
    „Um das Dunkelziffer-Problem zu umgehen, wurde häusliche Gewalt zusätzlich mithilfe einer
    komplexeren indirekten Messmethodik (einem “Listenexperiment”) erfasst. Hierbei werden
    Fragen zu Gewalterfahrungen nicht direkt gestellt. Stattdessen erhalten Studienteilnehmer-
    innen eine Liste mit verschiedenen Aussagen und müssen angeben, wie viele davon auf sie
    zutreffen (z.B., „3 von 5“). Dabei werden die Befragten per Zufallsprinzip in zwei Gruppen
    eingeteilt“ (Textseite 1 der Zusammenfassung. Ohne Seitennummerierung)

    Wenn das so zutrifft, haben sie aber demnach nicht etwa 3800 Frauen die identischen Fragen gestellt, sondern zwei Gruppen á 1900 gebildet, die verschiedene Fragen/Fragebögen vorgesetzt bekommen haben. Habe ich das richtig verstanden? Wie werden denn dann die Prozente für Antworten errechnet, die es gar nicht geben kann, weil die Fragen der Hälfte der Befragten nicht gestellt worden ist?

    Weiter: „Die Differenz zwischen den durchschnittlichen Anzahlen zutreffender Antworten gibt dann Aufschluss über die tatsächliche Häufigkeit von Gewalt“ – was aber dann heißt: „Gruppe 1: 4 neutrale Aussagen + 1 sensible Aussage (z.B. “Ich wurde innerhalb des letzten Monats von meinem (Ehe-)Partner zum Geschlechtsverkehr genötigt.“) Gruppe 2: dieselben 4 neutralen Aussagen, keine sensible Aussage“.

    Mir nicht klar, was eigentlich das Ziel der Befragung ist.
    Wenn das Ziel die Erforschung des Dunkelfelds („Dunkelziffer“) ist könnte die Hypothese sein, alle die offen die sensible Frage mit „Ja“ beantworten weisen in den neutral formulierten Fragen das gleiche Antwortmuster auf. Demnach wäre die implizite Erwartung, dass in der anderen Gruppe, die die neutralen Frage ähnlich beantwortet haben, die sensible Frage nicht mit „Ja“ beantworten.
    Aber die wird in Gruppe 2 gar nicht gestellt.
    Welche Schlüsse des Antwortverhaltens von Gruppe 1 auf Gruppe 2 können dann dann gezogen werden?

    • Man kann ohnehin nur dann mit dieser Blind-Frage-Liste irgend etwas aussagen, wenn für die Ersatzfrage der Zustimmungsprozentsatz bekannt ist – also man weiß, dass exakt 0% oder 50% oder 100% diese Ersatzfrage positiv oder negativ beantworten. Wenn hier noch eine Variation mehr in die Berechnungen einschwingt, macht das die auswertbare Zahl erheblich unschärfer. Ich weiß zwar, dass z.B. bei Psychologiestudentinnen-Umfragen dieses Konzept gerade in Mode ist, halte es aber für bessere Kaffeesatzleserei.

      Wie nahezu immer bei zielgerichteten Fragen – ich unterstelle hier, dass die „Forscherinnen“ einen Prozentsatz erhalten wollten – ist der exakte Wortlaut der Frage vermutlich aus gutem Grund nicht von Anfang an mit dem Ergebnis zusammen zu sehen. Zitat von ganz oben:

      # Rund 3 Prozent der Frauen in Deutschland wurden in der Zeit der strengen Kontaktbeschränkungen
      # zu Hause Opfer körperlicher Gewalt, 3,6 Prozent wurden von ihrem Partner vergewaltigt

      Das heißt also, mindestens 0,6 Frauenprozente (ausgerechnet: 0,006*1900, also 11 und eine halbwüchsige) wurden vergewaltigt, ohne Opfer körperlicher Gewalt zu werden. Dafür hätte ich gerne eine plausible Erklärung – oder ist es schon eine Vergewaltigung, wenn frau „finanziell vergewaltigt“ wird (oder ähnlichen Bullshit), weil Mann einen Baumarkteinkauf vom gemeinsamen Konto bezahlt?

      • Nachtrag:

        # Körperliche Gewalt: 3,1 Prozent der Frauen erlebten zu Hause mindestens eine körperliche
        # Auseinandersetzung, zum Beispiel Schläge. In 6,5 Prozent der Haushalte wurden
        # Kinder körperlich bestraft.

        Hier ist das Problem ja noch größer: In mindestens 3,4 Prozent der Haushalte wurden Kinder körperlich bestraft, ohne dass die Frauen das erlebten… Menno! Gewalt-Erlebnis-Gap! Nur höchstens in den anderen 3,1 Prozent konnten die Frauen selber prügeln (statistisch gesehen, natürlich, und da ist ja nicht gesagt, ob ein Mann oder ein Kind oder ein männliches Kind die Prügel abgekriegt hat).

        Relevant fände ich auch die Frage, ob in der Grundgesamtheit auch allein Lebendinne inbegriffen waren. Das Thema „Gewalt zwischen Frauen“ (in Beziehungen) war ja auch schon mal im Blog. Ob die diese Variable erfasst haben?

    • Ich hab das so verstanden: die Teilnehmerinnen antworten nicht mit ja oder nein auf einzelne Fragen, sondern antworten lediglich: von diesen 5 Aussagen treffen 3 auf mich zu – ohne zu sagen welche. Dadurch hofft man wohl, dass Frauen die nicht direkt zugeben wollen, Opfer zu sein, es versteckt eben doch mitteilen.
      Ich stelle es mir dennoch schwer vor, mit der Methode konkrete prozentzahlen zu ermitteln. Klar kann man den Unterschied zwischen „neutraler“ und „sensibler“ Gruppe berechnen und schlussfolgern dass dieser Unterschied an der einen Frage liegt, die für die Gruppen unterschiedlich war. Aber wie berechnet man daraus wie viel Prozent der Frauen wohl betroffen sind?

      Allgemein: wie immer bei solchen „Studien“ kommt alles auf die genaue Fragestellung an. „Es gab Gewalt“ sagt weder etwas über die Schwere aus, noch von wem sie ausging. So wie das in dem Text steht, könnte eine Frau, die ihren Mann verprügelt hat, genauso mit ja antworten wie eine, die von ihrem Mann geschubst worden ist.

      Und natürlich das übliche: nur Frauen werden gefragt damit man auch ja nicht feststellen kann, dass die Gewalt vielleicht gleichverteilt ist …

      • „Ich hab das so verstanden: die Teilnehmerinnen antworten nicht mit ja oder nein auf einzelne Fragen, sondern antworten lediglich: von diesen 5 Aussagen treffen 3 auf mich zu – ohne zu sagen welche.“

        Ja, das ist richtig, wenn ich die Methode korrekt verstanden habe.
        Gruppe 1 bekommt 4 Aussagen und sagt im Schnitt 2 treffen zu und Gruppe 2 bekommt 5 Aussagen (4 identische + eine sensible Aussage) und sagt im Schnitt, es treffen drei auf mich zu. Dann gibt es die Wahrscheinlichkeit x%, dass die dritte für sie zutreffende Aussage sich auf Aussage Nummer 5 bezieht.

        „Ich stelle es mir dennoch schwer vor, mit der Methode konkrete prozentzahlen zu ermitteln.“
        Es ist m.E. unmöglich.

      • Google ist unser Freund:

        https://books.google.de/books?id=CelICAAAQBAJ&pg=PA30&lpg=PA30&dq=listenexperiment&source=bl&ots=oqIQj9zdy4&sig=ACfU3U20lS5Eiqrdsx_LHH5D5CUEVaWYmQ&hl=de&sa=X&ved=2ahUKEwjEnsrYseXpAhWNDuwKHbfLAskQ6AEwBXoECAoQAQ#v=onepage&q=listenexperiment&f=false

        Die Methode auf zwei DinA5-Seiten erklärt.
        Die Erhöhung des Mittelwerts gibt den Prozentwert derer an, die die zusätzliche Frage bejahen.
        Beispiel: Mittelwert von 3 auf 3,2 -> 20% bejahen die Zusatzfrage.

        • Wenn du erstens vorab unterstellst, dass das Antwortverhalten von G1 und G2 im Durchschnitt identisch ist und sich nur in der Beantwortung der Zusatzfrage unterscheidet.
          Und zweitens alle items für beide Gruppen von beiden Gruppen gewählt worden sind.

          Genau das sagt der Mittelwert von 3 bei drei items, nämlich alle wählen gleichermaßen alle drei items – dann ist 3,2 tatsächlich ein Indikator dafür, dass die Zusatzfrage Nummer 4 durch G2 beantwortet worden ist.

          Was sagt es aber, wenn der Mittelwert von 2 auf 2,5 steigt? Dann ist die Wahrscheinlichkeit ebenso hoch, dass eines von drei items aus der für beide gleichen Gruppe zusätzlich gewählt worden ist oder das vierte item für G2.

          • „Wenn du erstens vorab unterstellst…“
            Statistische Methoden, die eine Stichprobe prüfen, haben es an sich, dass sie mit Annahmen arbeiten. Deshalb kriegt das Ergebnis ja auch ein Konfidenzintervall.

            „Genau das sagt der Mittelwert von 3 bei drei items, nämlich alle wählen gleichermaßen alle drei items – dann ist 3,2 tatsächlich ein Indikator dafür, dass die Zusatzfrage Nummer 4 durch G2 beantwortet worden ist.“
            In diesem Spezialfall ist 3,2 kein Indikator, sondern ein Beweis, da es rechnerisch gar nicht anders möglich ist, als dass 20%-100% von G2 der vierten Frage zugestimmt haben.

            „Was sagt es aber, wenn der Mittelwert von 2 auf 2,5 steigt? Dann ist die Wahrscheinlichkeit ebenso hoch, dass eines von drei items aus der für beide gleichen Gruppe zusätzlich gewählt worden ist oder das vierte item für G2.“
            Was der Annahme von der gleichen Verteilung für die items 1-3 widerspricht. Zu „Annahmen“ und ihren Auswirkungen s.o.

            Die Methode scheint mir an und für sich schlüssig; der Knackpunkt dürfte eher wieder in der genauen Aussageformulierung liegen ebenso wie in der mathematischen Auswertung der Unsicherheit. Dass die groß ist, schreiben die Autorinnen ja selbst.

            P.S.: Das Paper von Marburg, das du unten verlinkt hast, habe ich mir jetzt nicht durchgelesen; wenn da was drin steht, weshalb die Methode grundsätzlich Kappes ist, bitte ich um Erläuterung.

          • „Beispiel: Mittelwert von 3 auf 3,2 -> 20% bejahen die Zusatzfrage.“ vs. „Was der Annahme von der gleichen Verteilung für die items 1-3 widerspricht.“
            Bei einer Gleichverteilung kann es keinen Mittelwert 3 geben.
            Es gibt den Mittelwert 3 nur, wenn von drei items drei genannt werden.
            Jeweils ein Drittel für die Wahl von 1,2,3 items als Vorannahme gesetzt, dann ist der Mittelwert 2, ein Viertel für vier, dann ist der Mittelwert 2,5. Damit ist die Vorannahme von 4 bereits gesetzt.
            Quelle habe ich dir genannt, da ist auch das PDF zu finden.

          • Pfuuhhhh… ich hasse es, wenn ich nicht verstanden werde.

            Ich sprach von der gleichen Verteilung für die items 1-3 bei Gruppe G2, nicht von einer Gleichverteilung. Wenn also bei Gruppe G1 jeweils ein Drittel ein, zwei oder drei items als für sich gegeben betrachten, betrachten in G2 ebenfalls jeweils ein Drittel diese items für sich als gegeben. Beispiel: Für ein, zwei und drei items entscheiden sich in G1 100/100/100. Wenn dann in G2 zusätzlich jeder vierte auch das zusätzliche 4. item für sich als gegeben betrachtet, gibt es eine Reihe möglicher neuer Verteilungen. Z.B. 100/100/25/75, wenn die Leute, die auch das vierte item ankreuzen, in einer Befragung mit nur den drei items wie bei G1 alle auch bereits diese drei anderen items angekreuzt hätten. Dann ist der neue Mittelwert (100×1 + 100×2 + 25×3 + 75×4) / 300 = 675/300 = 2,25. Die 25% mehr entsprechen genau den 75 Personen von 300, die item 4 angekreuzt haben.

            Was du rechnest mit 1/3, 1/3, 1/3, 1/4, also zusammen 1 1/4, um auf einen Mittelwert 2,5 zu kommen, ist mir schleierhaft. Hier verstehe ich dich nicht.

          • „wenn da was drin steht, weshalb die Methode grundsätzlich Kappes ist, bitte ich um Erläuterung.“

            Ich habe das grob durchgesehen, durchaus überraschend, was dort herausgefunden wurde. Es wurde ein Replikations-Experiment bzw. Versuch durchgeführt, der ist gescheitert. Wundert einen nicht.

            Ferner treten bei der Methode manchmal Ergebnisse auf, die eigentlich unmöglich sein sollten: Die Listenexperimente müssen eigentlich stets höhere Werte (z.B. von Vergewaltigungen) als direkte Befragungen liefern, weil unterstellt wird, daß die bei direkter Befragung Vorfälle aus Scham verschwiegen werden. In Einzelfällen wurden aber kleinere Werte gefunden. Das deutet auf ein prinzipielles Problem hin.

            Ferner (stand in einer anderen Quelle) verliert man bei der Angabe 0 und „alle“ die Anonymität, d.h. vermutlich werden diese Werte vermieden.

            Also summa summarum ist diese Methode ziemlich fragwürdig und sehr fehleranfällig.

          • Jo, inzwischen habe ich auch das abstract überflogen. Könnte wohl auch ein Problem sein, dass die Zahl der items auf die Auswahl der items Einfluss hat.

            „Ferner verliert man bei der Angabe 0 und „alle“ die Anonymität“

            „Anonymität“ ist das falsche Wort, aber ich weiß, was du meinst. Gedankenexperiment: 3 items, wahre Verteilung 100/100/100/100 für 0/1/2/3 angekreuzte Antworten*, Schnitt 600/400=1,5. Wegen fehlender „Anonymität“ ballt sich alles in der Mitte, 0/200/200/0, Schnitt 600/400=1,5.
            Nun das 4. item dazu, aus jedem Abschnitt der wahren Verteilung kreuzen 1/4 das 4. item an. Neue „wahre“ Verteilung also 75/100/100/100/25, Schnitt 700/400=1,75, 0,25=25% mehr, stimmt. Wegen mangelnder Anonymität wird aber angekreuzt: 0/175/100/125/0, macht einen Schnitt von 750/400=1,875. Eine Überschätzung um 10 Prozentpunkte.
            Ei der Daus, quel malheur!

            „Also summa summarum ist diese Methode ziemlich fragwürdig und sehr fehleranfällig.“

            Fragwürdig und offenbar fehleranfällig, in der Tat. Vielleicht liegt Lucas (also, der Schoppe-Lucas, nee 😉 ) mit seiner Beurteilung unten ganz richtig: Zumindest teilweise brauchbar, aber nur unter bestimmten Bedingungen.

            *By the way: Hab oben die Null vergessen, sorry, crumar.

          • @Renton @mitm

            Ich verstehe so langsam, wo unsere Missverständnisse herrühren.
            1995: Wetzels, P., & Pfeiffer, C. „Sexuelle Gewalt gegen Frauen im öffentlichen und privaten Raum: Ergebnisse der KFN-Opferbefragung“ hatte eine zweiteilige Befragung, nämlich mündliches Interview und eine zusätzliche schriftliche Befragung zum „sensiblen“ Topic.
            Nach dem gleichen Muster verfuhr später: „Lebenssituation, Sicherheit und Gesundheit von Frauen in Deutschland“ aus dem Jahr 2005 von Prof. Dr. Ursula Müller, Dr. Monika Schöttle (Berater: Prof. C. Pfeiffer).

            Von daher ergeben meine Fragen für dich/euch evtl. einen anderen Sinn.
            Die Absicht der Zweiteilung war in beiden Fällen das „Dunkelfeld“ zu beziffern.
            D.h. welche items werden in einer standardisierten Interview-Situation benannt und welche werden in einer anonymisierten Form der schriftlichen Abfrage zusätzlich aufgeführt.

            Aus dieser Position fragte ich mich, was eigentlich das Ziel einer – per se anonymisierten Form – einer online-Befragung sein kann.
            Mir war weiterhin nicht klar, wo der Mehrwert gegenüber der FRA-Erhebungsergebnisse zur Gewalt gegen Frauen von 2014 gelegen hat, die sich bereits ausschließlich auf telefonische Interviews (von Frauen und nur von Frauen!) verließ.
            Nach diesen Befragungen und den Bewegungen #aufschrei (2013) und #metoo (2017) zu behaupten (2020), es gäbe ein soziales Stigma, welches die positive Beantwortung der Frage: „Wurden Sie in den letzten 7 Tagen genötigt/gezwungen Sex zu haben?“ verhindert, ist m.E. erklärungsbedürftig.
            Die Grundlage der Befragung ist jedoch, man könne dies nicht direkt abfragen, sondern müsse dies indirekt ermitteln.
            Aus diesem Grund war mir der Sinn, das Ziel der Studie einfach nicht zu vermitteln – ich habe mich immer gefragt, wo das soziale Stigma ist, sich als Opfer darzustellen.

            Dann: Ich möchte der Studie nicht vorgreifen, weil ich die gar nicht kenne, da n: 3800 und in zwei Gruppen á n: 1900 aufgeteilt ist, ist das Ergebnis wie folgt, n: 633 befinden sich gleich verteilt in den Antwortmöglichkeiten 1-3, damit sich im zweiten Fall dort jeweils n: 611 befinden können.
            Der Mittelwert ist so unverändert, wenn 65 aus G2 sich entscheiden, sich bei 4 einzufinden.
            Welche zur Differenz der Mittelwerte von 0,034 = 3,4% (n: 65) führt

            Natürlich hätte man für jedes item den Zustimmungsgrad vorher einzeln testen müssen, um diese Verteilung vorauszusetzen.
            Phhh. Laaangweilig.

          • Ok, das kommt davon!
            Ich habe mich im Beispiel auf 3+1 Fragen bezogen, die Renton als Beispiel gebracht hat, statt auf 4+1 der Studie. Was aber an der Konstellation des Beispiels nichts verändert.

        • Unter der Annahme, dass beide Gruppen die „unverfänglichen“ Fragen mit gleicher Wahrscheinlichkeit bejahen, müsste die Binomialverteilung herangezogen werden, um das Konfidenzintervall zu bestimmen. Um das mal nachzurechnen, müsste man aber alle Daten haben. Nicht die Annahme, dass beide Gruppen genau gleich antworten ist richtig, sondern dass sie mit gleicher Wahrscheinlichkeit die jeweiligen Fragen bejahen. Wenn man von der (falschen) Annahme ausgeht, dass beide Gruppen bei den gemeinsame Fragen identisch antworten, braucht man kein Konfidenzintervall mehr zu bestimmen, sondern man hätte Sicherheit in den Ergebnissen.

          • Unter der Annahme, dass beide Gruppen die „unverfänglichen“ Fragen mit gleicher Wahrscheinlichkeit bejahen,

            Diese Annahme kann grundsätzlich machen, denn die ursprüngliche Stichprobe wurde zufällig in eine Referenzgruppe und eine Restgruppe aufgeteilt. Beide sind Stichproben aus der Gesamtpopulation aller Frauen, über die man eigentlich Aussagen machen will.

            müsste die Binomialverteilung herangezogen werden,

            Sieht ganz danach aus. Dabei muß man mMn jede einzelne Antwort auf eine der Frage als separates Ereignis ansehen. Bei 4 Fragen pro Person und 1900 Personen hat man also n=7600 Fragen bzw. Antworten. Wenn nun in der Referenzgruppe insg. 3040 Ja-Antworten gegeben werden, würde man die Wahrscheinlichkeit einer Ja-Antwort auf die harmlosen Fragen auf 3040/7600 = 40% schätzen. Untere und obere Grenze des Unsicherheitsbereichs sind dann (wenn ich mich nicht irre und man die Excel-Standardformeln anwenden kann)

            BETAINV ( 0.025 ; 3040 ; 7600-3040 ) = 0,389012

            BETAINV ( 0,975 ; 3040 ; 7600-3040 ) = 0,411038

            Die wahre Wahrscheinlichkeit einer Ja-Antwort liegt also irgendwo zwischen ca. 38.9% und 41.1%, macht eine Spannbreite von 2.2%. Soweit das 1. Experiment mit der Referenzgruppe.

            Im 2. Experiment mit der Restgruppe bekomme ich i.a. mehr Ja-Antworten wegen der 5. Frage, z.B. 3110. Ohne Betrachtung der Unsicherheit würde ich schießen, daß 3110 – 3040 = 70 Ja-Antworten auf die 5. Frage enthalten sind, also 70 / 1900 = 3.68% der 5. Frage bejaht wurden.

            Mit Betrachtung der Unsicherheit sieht es übler aus: Die in den 3110 enthaltenen Ja-Antworten auf die harmlosen Fragen beträgt bei einer Ja-Quote von

            40.0%: 3040
            38.9%: 2956, also 84 weniger
            41.1%: 3124, also 84 mehr

            Man sieht schon hier, daß die 3110 im Unsicherheitsbereich liegt und daß die Hypothese nicht sicher verworfen werden kann, daß die 5. Frage immer vermeint wurde.

            Die Zahl der Ja-Antworten auf die 5. Frage ergibt sich abhängig von der Ja-Quote auf die anderen 4 Fragen wie folgt:

            40.0%: 70 = 3110 – 3040; 70 / 1900 = 3.684%
            38.9%: 154 = 3110 – 2956; 134 / 1900 = 7.052%
            41.1%: -14 = 3110 – 3124;

            D.h. die Zahl der Ja-Antworten auf die 5. Frage liegt irgendwo zwischen 0 und 154, die resultierende Ja-Quote zwischjen 0 und 7.052%. Schon hier kann man sagen, daß die Ja-Quote von 3.684% völlig wertlos ist.

            Wenn ich trotzdem von hier aus auf die Gesamtbevölkerung schließen will (was die Studie ja lauthals tut), muß ich auch für diese Werte die Unsicherheitsintervalle berechnen, z.B. auf Basis von 134 Ja-Antworten von 1900 komme ich auf den Unsicherheitsbereich 5.9452% – 8.2456%, also 7.052% +/- ca. 1.2%

          • „Unter der Annahme, dass beide Gruppen die „unverfänglichen“ Fragen mit gleicher Wahrscheinlichkeit bejahen, müsste die Binomialverteilung herangezogen werden, um das Konfidenzintervall zu bestimmen.“

            Vielleicht geht Ihr zu kompliziert an die Geschichte.
            Nehmen wir mal an, die vier „unverfänglichen“ Fragen sind derart gestaltet, dass 100% aller Frauen dieselbe Antwort darauf geben, also z.B. „Sind Sie weiblich?“.
            Jede Frau beantwortet diese Frage mit „Ja“. Spin-off ist nebenbei, dass man alle Antwortbögen mit einem „Nein“ an dieser Stelle verwerfen kann.
            Dann kommen noch drei weitere Fragen (z.B. „Sind Sie mindestens 15 Jahre alt“) und man hat eine sehr präzise Quote.
            Wenn man dann aus der Gruppe mit der verfänglichen Frage eine Abweichung nach oben ermittelt, darf man mit großer Sicherheit davon ausgehen, dass man die Gewaltquote extrahiert hat.

          • @Carnofis

            Wenn diese neutralen Fragen so sind, dass alle mit Ja oder alle mit Nein beantwortet werden, sind die statistischen Fehler in der Tat genauso groß wie bei den direkten Fragen. Solch ein Fragebogen wäre aber absurd. Die Idee des Listenexperiments geht dabei kaputt. So war der Fragebogen bestimmt nicht.

            Wenn die neutralen Fragen so waren, dass es 50% Ja-Antworten gab, sind die statistischen Fehler beim Listenexperiment sehr viel größer als bei den direkten Fragen. Grob geschätzt, weniger als 6% tatsächliche Ja-Antworten auf die sensible Frage sind statistisch nicht mehr nachweisbar.

          • „Wenn diese neutralen Fragen so sind, dass alle mit Ja oder alle mit Nein beantwortet werden, sind die statistischen Fehler in der Tat genauso groß wie bei den direkten Fragen. Solch ein Fragebogen wäre aber absurd.“

            Ja und nein. Absurd ist er aus mehreren Gründen sowieso.

            Ich sehe das eher unter den von den Gendas vorausgesetzten Rahmenbedingungen einer verängstigt vor dem Rechner sitzenden Frau, die den bierseligen Atem ihres mit dem Gürtel schnippenden misstrauischen Ehemannes im Nacken spürt. Sie wird nur gefragt, wie viele der Fragen sie bejaht. Ohne kritische Frage schreibt sie in das Feld z.B. eine „3“ (drei der vier Fragen waren sichere „Ja“s, eine war ein sicheres „Nein“). Ihr Gatte, vom Alkohol eh hirnvernebelt, kann daraus nicht erkennen, welche der Fragen seine Beute/Frau wie beantwortet hatte.
            Entscheidend ist also, dass die „sicheren“ Fragen mit einer extrem hohen Wahrscheinlichkeit von allen Frauen gleich beantwortet werden würden.

            Wäre zumindest eine Methode, die ich unter den vorgeblichen Bedingungen anwenden würde.
            Hätten die Antworten der „sicheren“ Fragen nur eine statistische Wahrscheinlichkeit, würde die Unsicherheit mit jeder Frage erheblich steigen.

          • @Navido: „Grob geschätzt, weniger als 6% tatsächliche Ja-Antworten auf die sensible Frage sind statistisch nicht mehr nachweisbar.“

            Die 6% sind sehr optimistisch. Im obigen Beispiel war ja der Unsicherheitsbereich der Prognose der Ja-Anworten auf die unkritischen Fragen 2*84 bzw. 2.2% breit, bei kleineren Teilnehmehmerzahlen wird er noch größer. Dieser Unsicherheitsbereich überträgt sich absolut (nicht prozentual) auf die geschätzte Zahl der Ja-Antworten auf die kritische Frage. Wenn man prozentual rechnen will, muß man hier den Unsicherheitsbereich um den Faktor 4 erhöhen, weil nur 1 Frage statt 4 behandelt wird. Im Beispiel sind das also 8.8%!! (= 168 /1900).

            Wenn das also kein Lotterispiel sein soll, sollte die Quote in diesem Beispiel mit n=1900 und 4 unkritischen Fragen wenigstens 15% sein, der Unsicherheitsbereich wäre dann 15% +/-4.4%.

          • „Im obigen Beispiel war ja der Unsicherheitsbereich der Prognose der Ja-Anworten auf die unkritischen Fragen 2*84 bzw. 2.2% breit, bei kleineren Teilnehmehmerzahlen wird er noch größer.“

            Unter der Voraussetzung, dass du weißt, wie hoch die Wahrscheinlichkeit ist, dass das konkrete item in den „unkritischen Fragen“ auch eine „Ja-Antwort“ erhält.
            Das ist die Crux.
            Im Grunde müsstest du jedes item in einem Bündel von items vorher testen und dir die items heraussuchen, die a. mit gleich hoher Wahrscheinlichkeit zu einer „Ja-Antwort“ führen.
            Dann hätte man b. eine statistisch für eine x-fache „Ja-Antwort“ gesorgt – bei drei items wäre der ideal zu erzielende Mittelwert drei und das müsste demnach das Ziel sein.
            Jede Idee einer – wie auch immer gearteten – (Gleich-) Verteilung auf die Antwortmöglichkeiten (1-3) ist sinnlos, weil mit der Addition von Unsicherheiten behaftet.

            Oder man nimmt als Nullhypothese die angestrebte 0-Antwort.
            Beispiel für drei unkritische Fragen für G1 auf dieser Grundlage:
            „Worüber haben Sie sich letzte Woche geärgert?
            1. Dass in China ein Sack Reis umfiel?
            2. Es war nachts kälter als draußen?
            3. Joghurt enthält keine Gräten?“

            G2 Frage 4: „Dass die Österreicher die Juden kontrollieren, die in der Welt viel zu viel Einfluss haben.“
            Ich erwarte deutlich mehr als 3% für meine allerliebste Verschwörungstheorie. 🙂

          • @crumar.

            Das ist die Crux. Im Grunde müsstest du jedes item in einem Bündel von items vorher testen und dir die items heraussuchen, die a. mit gleich hoher Wahrscheinlichkeit zu einer „Ja-Antwort“ führen.

            Nein, die Menge der Antworten auf die harmlosen Fragen wird als ein einziger Block behandelt. Ich habe die Erklärung des Verfahrens noch einmal überarbeitet und erweitert, siehe bitte hier noch mal nach: http://maninthmiddle.blogspot.com/2020/06/studie-feministische-fake-news.html#fn2

          • Was auf haargenau das Gleiche hinaus läuft.
            Denn die Teilnehmer, die die fünfte Frage zusätzlich bejahen rekrutieren sich aus der gleichen Gruppe, die vorher die Fragen 1-4 hätten bejaht haben können.

  5. Besonders erschreckend finde ich Teile der Presse, die im Titel über einen Anstieg von häuslicher Gewalt schreibt – wobei in der Studie dann slebst ausdrücklich steht: „Ein Vergleich dieser Zahlen mit Daten aus der Zeit vor der Pandemie wäre nicht aussagekräftig,“

  6. „Rund 3 Prozent der Frauen in Deutschland wurden in der Zeit der strengen Kontaktbeschränkungen zu Hause Opfer körperlicher Gewalt, 3,6 Prozent wurden von ihrem Partner vergewaltigt. In 6,5 Prozent aller Haushalte wurden Kinder gewalttätig bestraft.“

    Boah!!!

    Das ist eine echt krasse Suggestion, die da aufgebaut wird. Es wurden NUR Frauen befragt und in der Pressemitteilung werden dann die so gewonnen Ergebnisse in einer Art dargereicht, die für alles nur eine Tätergruppe zulassen will. Selbst bei gewalttätiger Bestrafung von Kindern, was statistisch weit eher von den Müttern ausgeht. Es wird allein durch diese Aufzählung aber etwas anderes suggeriert. Die schäbigste Art des Lügens ist die, bei der der Lügende sich von vornherein nicht willens zeigt, zu seinen Lügen zu stehen, sondern diese nur per Suggestion verbreitet, um sich bei Bedarf auf das übliche „das habe ich SO nicht gesagt“ zurückziehen zu können.

    Wie kommt man überhaupt auf die Idee, auch nur halbwegs seriöse Zahlen über Gewalt gegen Kinder erhalten zu können, indem man ausschließlich Frauen dazu online befragt?

    Ich fasse es nicht!

  7. Zur Methode: Das “Listenexperiment” kannte ich nicht, habe eine kurze Recherche gemacht und bin hier fündig geworden (Übersetzung durch DeepL):
    „Social desirability in survey research: Can the list experiment provide the truth?“ von Stefanie Gosen
    https://archiv.ub.uni-marburg.de/diss/z2014/0228/

    „Das Phänomen des Social Desirability Response Bias in der Umfrageforschung wird in der Sozialpsychologie und Sozialwissenschaft seit vielen Jahren diskutiert. Verzerrungen treten oft dann auf, wenn eine Frage oder ein Thema von Interesse „sensibel“ ist (Lee, 1993), d.h. wenn es einen potentiell peinlichen, bedrohlichen oder stigmatisierenden Charakter hat (Dalton, Wimbush, & Daily, 1994). Um sozial erwünschte Antworten in Selbstberichten zu vermeiden, wurden indirekte Erhebungsmethoden angewandt. Diese Techniken sollten die Anonymität der Befragten gewährleisten und somit valide Selbstberichte erhalten (Tourangeau & Yan, 2007). Eine der Methoden, mit denen dieses Ziel erreicht werden soll, ist das Listenexperiment. Im Allgemeinen ist das Listenexperiment in der Lage, eine Schätzung des Anteils der Personen zu erstellen, die einem sensiblen Gegenstand zustimmen. Um den sozialen Erwünschtheitsbias zu bestimmen, wird die Schätzung des Listenexperiments dann mit direkten Fragen zur Selbstberichterstattung verglichen. Wenn es eine Verzerrung der sozialen Erwünschtheit gibt, sollte die Schätzung des Listenexperiments höher sein als die direkte Selbstberichterstattungsfrage. Die Literatur liefert jedoch kein konsistentes Bild der Funktionalität des Listenexperiments. Darüber hinaus zeigen einige wenige veröffentlichte Studien Komplikationen mit der Datenerhebung und den Ergebnissen des Listenexperiments (Biemer et al., 2005).“

    Zunächst einmal wäre es in der Tat interessant herauszufinden, ob feministische Forschung in Umfragen nicht auf Frauen treffen, die „sozial erwünscht“ von Gewalterfahrungen oder sexueller Belästigung berichten, die sie tatsächlich nie gemacht haben.
    Ich glaube jedoch, das war nicht das Ziel der Studie. 😉

    Vorausgesetzt wird hier also, das Antwortverhalten in einer Umfrage orientiert ich an geltenden sozialen Normen, an der Bereitschaft zur positiven Selbstdarstellung, an der Zustimmung der Interviewer und verzerrt dieses Antwortverhalten.
    Ist es bspw. gesellschaftlich sakrosankt Rassist zu sein, werden abgefragte individuelle Vorurteile z.B. gegenüber Schwarzen demnach mit großer Wahrscheinlichkeit nicht ehrlich beantwortet.

    Die Methode wurde zur Vorurteilungsforschung eingesetzt, indem zwei Listen mit Fragen zwei verschiedenen Gruppen (G1, G2) vorgesetzt werden – eine enthält das sensible Thema (G2), das andere nicht (G1). Das sensible Thema verbirgt sich in einem Block mehrerer Aussagen und gefragt wird nicht direkt nach der Zustimmung zu einer Aussage, sondern nach der Anzahl der Zustimmungen zu den Aussagen im Block.
    Wie gesagt: Bei der einen Gruppe ist das sensible Thema als Aussage enthalten, bei der anderen Gruppe nicht.
    Wie vielen dieser Aussagen stimmen sie zu?
    G1+G2: – aaa, – bbb, – ccc
    Nur G2 zusätzlich: – ddd

    Dann werden Durchschnitte der beiden Gruppen gebildet, Subtraktion: G2-G1 und daraus kann dann indirekt auf die Befürwortung der Aussage geschlossen werden, ohne dass man diese direkt abfragen muss.

    Dazu drei Anmerkungen:
    Die Existenz welcher sozialen Norm wird jedoch von den Forscherinnen unterstellt, die zu sozial erwünschten Antworten bei der Frage zur Gewalterfahrung führen könnte? Welche ist das?
    Mir ist nicht klar, was sie eigentlich messen wollen.
    Soweit ich die Methode verstanden habe, handelt es sich um ein Schätzverfahren. Es war überhaupt nicht dazu gedacht präzise Daten zu liefern, sondern abzuschätzen, wie verlässlich die erhobenen Daten in Hinblick auf sozial erwünschtes Antwortverhalten sind.

    Die oben angeführte Autorin äußert sich so zur Methode: „Insgesamt deuten die Ergebnisse der beiden Manuskripte darauf hin, dass das Listenexperiment nicht in der Lage ist, gültige und konsistente Ergebnisse zu erhalten. Die Ergebnisse dieser Dissertation deuten darauf hin, dass bei der Beantwortung eines Listenexperiments Faktoren auftreten, die Verzerrungen verursachen und die Gesamtfunktion des Listenexperiments beeinflussen.“

    Demnach ist es nicht nur die falsche Methode, sondern eine schlechte Methode.

    • „kannte ich nicht“

      Ich auch nicht. Passend zur Unbrauchbarkeit der Methode sind auch keine Konfidenzintervalle angegeben oder Ergebnisse anderer Signifikanztests, die sind hier vermutlich überhaupt nicht möglich. Aber man verallgemeinert locker mit 2 Stellen Genauigkeit von 2000 Personen auf ca. 40 Mio.

    • Errata: „in einer Umfrage orientiert sich an“ und „Ist es bspw. gesellschaftlich unerwünscht Rassist zu sein“ – Notiz an mich: Nicht gleichzeitig Text schreiben und monatliche Abrechnung machen! 😦

      • Gern geschehen! Ich bin mir nicht sicher, ob den Autorinnen der Studie wirklich klar ist, was für einen Quatsch sie fabriziert haben.

        • „Ich bin mir nicht sicher, ob den Autorinnen der Studie wirklich klar ist, was für einen Quatsch sie fabriziert haben.“

          Geh davon aus, dass es ihnen klar ist.
          Oder hast Du jemals aus feministischer Feder gelesen, dass Männer doch nicht so gewalttätig sind, wie ständig landauf, landab kolportiert wird?
          Wenn Statistiken immer dieselben Ergebnisse liefern, dann gibt es tatsächlich das vermutete Problem, oder sie werden permanent in dieselbe Richtung gefälscht.
          Kannst Dir aussuchen, was Du für wahrscheinlicher hältst.

    • „Demnach ist es nicht nur die falsche Methode, sondern eine schlechte Methode.“ Wenn ich es richtig überblicke, ist die Methode als eine Kontrolle von Ergebnissen gar nicht so schlecht. Wenn man schon Ergebnisse aus Befragungen hat, sich aber nicht sicher sein kann, inwieweit diese Ergebnisse durch Erwägungen sozialer Erwünschtheit beeinflusst wurden – dann kann es ganz sinnvoll sein, sie durch eine solche Stichprobe gegenzuchecken.

      Wenn sich beides stark unterscheidet, dann muss man eben überprüfen, woran es liegt – und wenn beide Ergebnisse nahe beieinander liegen, sind sie fürs Erste einigermaßen vertrauenswürdig.

      Nur: Da diese Methode ihrerseits mit vielen Unsicherheiten verbunden ist, die crumar ja schon aufgezählt hat (z.B. der Annahme, dass beide Kontrollgruppen bei den nicht-sensiblen Fragen annähernd gleich antworten werden), eignet sie sich nur als Kontrolle bestehender Ergebnisse. Die Ergebnisse, die sie selbst erbringt, sind aber nicht an sich verlässlich. Sie ist schon gar nicht dazu geeignet, aus einer relativ kleinen Gruppe mit unsicheren Daten auf eine riesige Gruppe von 83 Millionen zu projizieren.

      Angesichts dieser Unsicherheiten, die jeder seriösen Wissenschaftlerin klar sein müssten, ist es erst recht nicht mehr verständlich, dass Männer nicht gefragt wurden. Das würde ja nicht nur Männer mit einbinden – sondern Männer- und Frauenergebnisse könnten auch aneinander überprüft werden.

      Zudem können typische Gewaltdynamiken, an denen eben jeweils mehrere beteiligt sind, überhaupt nicht analysiert werden, wenn systematisch nur ein Teil dieser Gewaltdynamik befragt wird.

      Es gibt also tatsächlich einige Gründe für die Annahme, dass diese Forschung in ihrem ganzen Design darauf ausgerichtet ist, erwünschte Ergebnisse zu produzieren. Damit ist es dann aber tatsächlich keine Forschung mehr, sondern eine politische Stellungnahme.

      • „Es gibt also tatsächlich einige Gründe für die Annahme, dass diese Forschung in ihrem ganzen Design darauf ausgerichtet ist, erwünschte Ergebnisse zu produzieren. Damit ist es dann aber tatsächlich keine Forschung mehr, sondern eine politische Stellungnahme.“

        War das bei feministischer „Forschung“ jemals anders?

  8. „Erste große Studie zu Erfahrungen von Frauen und Kindern in Deutschland – Häusliche Gewalt während der Corona-Pandemie“

    Eigentlich braucht man ab hier schon nicht weiterlesen, da Männer in dem Horizont der Frauen offensichtlich nicht vorkommen. D.h. sie kommen schon vor, denn sie üben natürlich die Gewalt aus.

    Cara Ebert schreibt über sich:
    Interests: Family, Gender, Human Capital, Demography

    Janina Steinert schreibt über sich:
    research topics include poverty alleviation, HIV/AIDS, inter-personal violence, female empowerment, and research ethics

    Also gender und female empowerment. Kein Wunder, dass da so ein bullshit bei rauskommt. Bin mal gespannt, was die Medien draus machen. Wahrscheinlich das Übliche.

    • „“Erste große Studie zu Erfahrungen von Frauen und Kindern in Deutschland – Häusliche Gewalt während der Corona-Pandemie“
      Eigentlich braucht man ab hier schon nicht weiterlesen“

      Da steckt doch schon die erste Fakenews drin: Wenn ich das richtig verstanden habe, wurde kein Kind befragt. Trotzdem steht da „große Studie zu Erfahrungen … von Kindern“. Wie bitte ermittelt man Erfahrungen von Kindern, die man nie befragt, gesehen oder gehört hat? Wer sowas veröffentlicht, darf sich doch nicht Universität nennen.

  9. Das ist leckerste Empirie der Neuzeit. Ich kann ja nachvollziehen, wenn man fragt, wie oft Gewalthotlines, die Polizei, Kinderschutzeinrichtungen etc. um Hilfe gerufen oder wie oft ein geheimes Codewort in der Apotheke geraunt wurde. Das war ja für die Frauenministerin und ihre Femtourage sehr ernüchternd. Aber dann ähnlich subtile Methoden anzuwenden, wie wir sie von „Wildwasser“ und „Zartbitter“ und den Wormser Prozessen kennen, ist schon wirklich bösartig.

    Wenn mit solchen Methoden gleichermaßen Männer und Frauen befragt worden wären und dabei herauskäme, dass Männer zu über fünf Prozent angeben, von ihrer hysterischen Partnerin körperlich angegangen worden zu sein – was wäre dann? Vorzeitiger Studienabbruch? Hinterfragung der Methoden?

    Stellen wir uns mal eine Welt vor, in der Männer ihre Familie in der Not beschützen, alles dafür tun, dass es den Liebsten gut geht. In der sich alle zusammenraufen, um gemeinsam der Bedrohung zu trotzen. Komische Vorstellung, oder? Für Feministen offenbar ein unmögliches Szenario. Dabei ist das seit Jahrtausenden Usus.

    Das passt aber nicht ins Konzept der Giffeyschen Gesellschaftsspaltung. Da muss doch eine Benachteiligung und eine Unterjochung von Frauen zu finden sein. Und wenn die schon verneinen, dann könnten sie doch wenigstens für IHRE Kinder ja sagen. Gefälligst! Ist doch für eine gute Sache. Hat denn wirklich nicht ein einziges Mal Ihr Mann den 15-Jährigen Sohn nachts am Kragen aus dem Weinkeller gezerrt, nachdem der Junge schon die zweite Flasche 68-er Chateau Paperlapapp geleert hatte? Echt nicht? Nicht mal gebrüllt? Haben Sie vielleicht vergessen. Nehmen Sie den Fragebogen hier, dann fällt es Ihnen vielleicht leichter.

    • „Wenn mit solchen Methoden gleichermaßen Männer und Frauen befragt worden wären und dabei herauskäme, dass Männer zu über fünf Prozent angeben, von ihrer hysterischen Partnerin körperlich angegangen worden zu sein – was wäre dann? Vorzeitiger Studienabbruch? Hinterfragung der Methoden?“

      Gab es hier schon mal. Studentin macht Studie zu häuslicher Gewalt, in der Frauen UND Männer befragt werden. Sie bekam einen Anruf von ihrer Genderprofessorin und die Anweisung alle Männer die Opfer wurden aus der Studie zu entfernen.

  10. Verstehe ich das richtig: eine Frau, die ihrem Mann ein Messer in den Arm jagt und der dann von ihm das Messer mit Gewalt weggenommen wird, ist Opfer häuslicher Gewalt durch den Mann?

    Will die Studie suggerieren, daß die Eigenschaft, Frau zu sein, die Ursache dafür ist, Ziel von Gewalt zu sein? Oder ist das eine versteckte Annahme, die – oh Wunder – am Ende bestätigt wird? Ohne diese Annahme hätte man die ganze Bevölkerung fragen müssen, um z.B. herauszufinden, ob ganz andere Faktoren (Religion, Wohnverhältnisse,…) einen wesentlichen Einfluß haben.

    Da es sich um Gender-Forscherixe handelt: wurde denn auch nach der sexuellen Orientierung gefragt und konnte der bekannte Effekt, daß Gewalt in lesbischen Beziehungen häufiger als in heterosexuellen ist, bestätigt werden?

    • „Verstehe ich das richtig: eine Frau, die ihrem Mann ein Messer in den Arm jagt und der dann von ihm das Messer mit Gewalt weggenommen wird, ist Opfer häuslicher Gewalt durch den Mann?“

      Ja, sicher. Und wenn dabei sein rechter Arm kurz in der Luft ist, ist es auch ein rechtsextremer Vorfall.

  11. „eine anerkannte indirekte Fragemethode“ ist reines Blabla. Und wie Crumar oben nicht nur bahuptet, sondern mit einer Quelle belegt, ist die Methode offensichtlich Bullshit. Damit sind jedwede Ergebnisse: Bullshit. Ende.

      • So funktioniert das Spiel.

        Und auch die Medien haben – abgesehen von dem aufmerksamkeitsgenerierenden Info-Futter – etwas davon: Ein paar Euro fallen auch für Anzeigen und Werbespots zur Bekanntmachung der entsprechenden Telefon-Hotlines ab.

        Das ist im Anzeigengeschäft zwar nur Kleinvieh aber auch das macht Mist. Vor allem in wirtschaftlich prekären Zeiten.

        • Glaube ich gar nicht mal. Anzeigen sind den Redakteusen da recht egal. Aber Gewalt gegen Frauen klickt noch besser als normale Genderthemen. Und da dpa die Pressemitteilung verwurschtet hat, fummeln sich alle das Thema jetzt zurecht.

          Und wer da in der Redaktion irgendeine Frauenrechtlerin auf Kurzwahl hat, der hat in wenigen Minuten auch noch was „Exklusives“ dazu.

          Ich wette, keine Redaktion wird in den nächsten 48 Stunden die Methodik der Ursprungsmitteilung hinterfragen.

          • „Ich wette, keine Redaktion wird in den nächsten 48 Stunden die Methodik der Ursprungsmitteilung hinterfragen“

            Da kann ich vielleicht behilflich sein…. ich habe versehentlich aus Neugierde angefangen, nach Artikeln zu suchen, die die Studie unhinterfragt zitieren, und bin gerade bei ca. 30 !! Ich schreibe das jetzt noch alles auf und melde mich in 2 Stunden noch mal mit der Liste und gff. einem Versuch, die wichtigsten Punkte dieser Diskussion zusammenzufassen.

      • Die Maschinerie läuft schon auf Hochtouren. Beim stern sind die Terre de Femmes schon zu lesen, deren Statement zusammengefasst „Siehste!“ lautet.

        https://www.stern.de/panorama/stern-crime/studie–frauen-in-haeuslicher-quarantaene-vermehrt-gewalt-ausgesetzt-9285704.html

        Wo bleibt Giffey? Die Forderungen nach mehr Frauenhäusern, Beibehaltung der Pop-up-Betten in den Hotels etc.? Ich schätze, das kommt dann morgen. Die ist manchmal ein bisschen langsam.

        • „Beim stern sind die Terre de Femmes schon zu lesen, deren Statement zusammengefasst „Siehste!“ lautet.“

          vor kurzem bei Genderama:

          Besonders erschwert wurde dieses Schaulaufen dadurch, dass die von Vincent angesprochenen Frauen ihr zunächst mit unverhohlenem Misstrauen begegneten und jedes Verhalten erst einmal gegen sie auslegten. Wo Männer, denen sie als Mann begegnete, „ihm“ erst mal unterstellten, dass er in Ordnung sei, solange er nicht das Gegenteil zeigte, unterstellten die Frauen erst einmal das Schlechteste: „Sie neigten dazu, in jedem Mann, den sie trafen, einen Wolf zu sehen, also machten sie aus jedem Mann, den sie trafen, einen Wolf – selbst wenn es sich bei diesem Mann um eine Frau handelte.“ Vincent räumt ein, dass sie als Frau auf dieselbe Sichtweise konditioniert worden war: „Ich habe die Textsammlungen des radikalen Feminismus gelesen, und indem ich ihrer Führung folgte, glaubte ich, dass sämtliche Männer vom Patriarchat beschmutzt seien.“

          https://genderama.blogspot.com/2020/06/junge-frau-erkennt-entsetzt-wie-es.html

          Feministinnen wissen doch schon das alle Männer böse und schlecht sind und Frauen mit allen Mitteln das Leben zur Hölle machen wollen, sie müssen nur noch die Tatsachen umfänglich verdrehen, um die Beweise dafür zu erhalten.

      • Die Studie wurde heute auch bei uns in der Lokalzeitung präsentiert, selbstverständlich ohne kritisches Hinterfragen.

        Die feministische Propaganda muss 24/7 in die Köpfe der Bevölkerung gehämmert werden, weil mit den nicht vorhandenen Fakt läßt sie sich nicht überzeugen.

  12. Also ich finde 3,6 Prozent ja keine große Zahl. Schon gar nicht, wenn man berücksichtigt, was heutzutage alles als „Gewalt“ oder „Vergewaltigung“ zählt.

    • Meine Hypothese ist ja noch extremer. Ich bin so kühn zu vermuten, dass innerfamliäre Auseinandersetzungen im Angesicht der gemeinsamen äußeren Bedrohung sogar zurückgegangen (potzblitz!) sind. Denn wenn Corona vor der Tür lauert, dann lassen viele Fünfe gerade sein und besinnen sich auf das Wesentliche, eben auf ihre Liebsten.

      Leider finde ich keine Uni, die daraus eine Pressemitteilung macht.

  13. Listenexperiment
    Ein Listenexperiment soll den bias „Antwort gemäss sozialer Erwünschtheit“ ausschliessen.

    Dazu werden die Teilnehmer zufällig in zwei Gruppen aufgeteilt. Der Kontrollgruppe wird eine Liste mit „unverfänglichen“ Fragen vorgelegt. Der Experimentalgruppe wird die gleiche Frageliste ausgehändigt bis auf eine Frage in jedem Frageblock zusätzlich, die als „heikel“, d.h von sozialen Konventionen beeinflusst erachtet wird. Die beiden Gruppen sagen bei jedem Frageblock, wie viele der Fragen sie mit Ja beantworten. Die Idee ist, dass es den Teilnehmern der Experimentalgruppe leichter fällt, wahrheitsgemäss zu antworten, weil nicht sicher ist, zu welchen Fragen sie mit Ja geantwortet haben.

    Durch den Vergleich der Resultate der beiden Gruppen können die Differenzen auf die zusätzliche „heikle“ Frage zurückgeführt werden, wenn man denn beide Gruppen als gleichermassen repräsentativ voraussetzt.

  14. „Das wäre dann ja wenn ich das richtig verstehe – was nicht der Fall sein muss – nichts wert.“

    Das verstehe ich genauso. Eigentlich dient diese Studie nicht dem Erkenntnisgewinn sondern nur als Futter für die Medien um ein Narrativ (Frau als ewiges Opfer) zu verbreiten.

    Dieser Frauenfetischismus treibt viele kuriose Blüten. Tatsächlich wäre nach der Fragestellung selbst die Frau die ihren Mann schlägt, ein Opfer häuslicher Gewalt. Denn sie hat definitiv Gewalt erlebt.

    Besonders zynisch ist dies bei dem Teil mit den Kindern. Hier kann tatsächlich frau erst den Nachwuchs grün und blau schlagen und sich dann guten Gewissens hinsetzen und in der Befragung angeben, dass der Nachwuchs körperlich gezüchtigt wurde.

  15. 1. Was sind eigentlich neutrale Aussagen? Dass man Angst vor dem Partner hat oder das Haus nicht verlassen darf, ist auch keine neutrale Aussage. Enthält die Umfrage auch andere wirklich neutrale Fragen, ob z.B. der Anteil der Hausarbeit gestiegen ist? Dann werden Daten also so interpretiert:
    wenn, nur mal hypothetisch, keine einzige Frau Gewalt erfahren hat, bei Anwesenheit dieser sensiblen Frage aber 63% statt 60% finden, dass der Arbeitsaufwand im Haus gestiegen ist, dann wird das so interpretiert, dass 3% Gewalterfahrung hat. Den Anstieg kann man auch so erklären: die Anwesenheit der sensiblen Frage erweckt den Eindruck, dass es gewünscht ist, dass Frauen sich als Leidtragende präsentieren.

    2. Interessant sind die Daten, die Cara Ebert zeigt, und die sich offensichtlich auf eine andere Studie beziehen. 5,7% der Männer, aber nur 2,3% der Frauen haben Angst vor ihrem Partner. 4% der Männer, aber nur 2,3% der Frauen berichten von einem körperlichen Konflikt. Letzteres ist aber unklar: als Täter oder als Opfer? Aber wahrscheinlich ist hier als Opfer gemeint.

    • Deine Einwände sind berechtigt. Es ist fraglich, ob beim Listenexperiment nicht andere Verzerrungen auftreten. Es ist aber wie bei allen Studien: Um zu beurteilen, wie aussagekräftig die Resultate sind, muss man die Details kennen. Die Behauptung, dass über 3% der befragten Frauen in diesem kurzen Zeitraum vergewaltigt wurden kann ich nicht glauben. Das erscheint mir extrem hoch und findet sich so in keiner mir bekannten seriösen Studie wieder. Nur in der feministischen Propaganda begegnet man solch hohen Vergewaltigungszahlen, sei es, weil frei fantasiert wird, sei es, weil alles Mögliche unter Vergewaltigung subsummiert und der Begriff bis zum „geht nicht mehr“ ausgedehnt wird.

    • @Navido:

      … Anwesenheit dieser sensiblen Frage aber 63% statt 60% finden, dass der Arbeitsaufwand im Haus gestiegen ist, dann wird das so interpretiert, dass 3% Gewalterfahrung hat.

      Richtig, dieses Problem ist nach meinem bisherigen Verständnis der Methode noch viel schlimmer: von den beiden Gruppen, die zufällig gebildet werden, dient die Gruppe ohne die kritische Frage als Kontrollgruppe. Deren Durchschnittszahl von positiven Antworten, z.B. 2.36, dient als Schätzung dafür, wieviele positive Antworten auf die 4 unkritischen Fragen im Schnitt in der anderen Gruppe zu erwarten sind, sozusagen eine Nullhypothese. 100 Frauen würden also 236 positive Antworten produzieren.

      Wenn in der anderen Gruppe mit 5 Fragen jetzt 240 positive Antworten pro 100 Frauen produziert werden, wird die Differenz von 240-236 = 4 als die positiven Antworten auf die 5. Frage verstanden.

      Dabei bleibt aber die Unsicherheit dieser Schätzung, daß „eigentlich“ 236 positive Antworten zu erwarten waren (z.B. wegen Zufalligkeiten bei der Zusammensetzung der beiden Stichproben), Wenn die Unsicherheit hier 5 % beträgt, also +-11.75 = 236*0.05, dann verschwinden die 4 zusätzlichen positiven Antworten in der 2. Gruppe völlig im statistischen Rauschen.

      Nun kennt ja niemand die Studie, vielleicht steht dazu ja etwas drin, ich kann mir aber nur schwer eine sinnvolle Methode zur Schätzung der Unsicherheit der Nullhypothese vorstellen. Und ohne so eine Schätzung kann man über nachgerade mikroskopischen Effektstärken von 3.5% keine sinnvolle Aussage machen.

      • Ich hab es mal abgeschätzt. Die Rechnung ist nicht wirklich trivial, und ich kenn vor allem nicht die Anzahl der Ja-Antworten auf die neutralen Fragen. Das ist für die Statistik ziemlich wichtig. Mal angenommen, die neutralen Fragen werden zu 50% mit Ja beantwortet, dann sind Unterschiede zwischen den Gruppen kleiner als 120 positiver Antworten nicht signifikant. Also, bei 1900 Frauen pro Gruppe, müssten die Unterschiede etwas größer als 6% sein, um signifikant zu sein. Eine Effektstärke von 3.5% wäre in der Tat zu klein, um signifikant zu sein.

        Dabei hab ich angenommen, dass die Antworten auf alle neutralen Fragen statistisch unabhängig sind. Wenn die abhängig sind, sind die statistischen Streuungen noch größer.

      • „ich kann mir aber nur schwer eine sinnvolle Methode zur Schätzung der Unsicherheit der Nullhypothese vorstellen.“

        Die Methode gibt es sicherlich. In diesem Fall hat sie zu den doch beachtlich großen Fehlerbalken geführt, auf die Christian schon aufmerksam gemacht hat.

      • Ich sehe noch einen prinzipiellen Effekt : mehr Fragen gibt mehr antworten mit ja.
        Vor allem gibt es dazu keine Kontrolle im Set der befragten.

  16. Vor kurzem kam morgens im Deutschlandfunk eine Reportage über die ansteigende Gewalt in Familien während der Corona-Krise, nein, falsch: über Befürchtungen von Sozialarbeitern, es könne in den Familien zu vermehrter Gewalt kommen. Der DLF musste nämlich zugeben, dass alle Zahlen gegen die Begründetheit dieser Befürchtung sprächen. Aber die Zahlen könnten ja trügen!

    Vorgestellt wurden Eltern, die den Doppelbelastungen von Beruf und Kinderbetreuung ausgesetzt sind und sich heldenhaft wehren gegen die Versuchung, ihre Kinder zu schlagen. Aber wie sehe es denn in den anderen Familien aus? Da bleibe es womöglich nicht so friedlich.

    Zum Schluss gab es ein Interview mit einer Sozialarbeiterin, die von großer Sorge erfüllt war, die Kitas und Schulen könnten in der Zeit der Schließung ihre Funktion als Warner vor familiärer Gewalt nicht ausüben. Es sei höchste Zeit, diesen Zustand zu beenden. Auch hier wieder: keine Zahlen, keine Beispiele, schlimmer noch: ein Gegenbeispiel. Die Sozialarbeiterin berichtete von einem Fall, in dem eine Mutter mit Kind aus dem Frauenhaus wieder zurück in die Familie gegangen sei, wegen der harten Corona-Maßnahmen.

    Man könnte meinen, im DLF seien subversive „rechte“ Kräfte am Werk: zunächst werden Vermutungen angestellt, die dem feministischen Narrativ entsprechen, doch dann wird der Hörer fast schon gewaltsam mit der Tatsache konfrontiert, dass es für diese Vermutungen keinen Anlass gibt.

    • Das Beispiel zeigt das ganze Elend. Es wird gemutmaßt über mögliche Gewalt. Also entsteht in den Köpfen das Bild der eingesperrten, misshandelten und vergewaltigten Frau. Ein schlimmes Bild.

      Dann trifft aber die Mutmaßung nicht zu, das Bild ist falsch. Es wird versucht, irgendwie irgendwo Belege für die Mutmaßung zu finden. Klappt auch nicht wirklich. Das berichtet der DLF und wärmt so das Bild in den Köpfen wieder auf.

      Dann kommt eine Universität zu Hilfe und macht was mit „repräsentativ“. Boah, endlich, die schlimmen Befürchtungen haben sich bestätigt.

      Unabhängig davon, wieviel Geld jetzt wieder in Frauenbereich gekippt wird, finde ich das Brainwashing in diesem Kontext am schlimmsten: Über Wochen und Monate wird uns von den Medien immer wieder das Bild der unterjochten Frauen in den Kopf geprügelt. Bis auch der letzte Volltrottel glaubt, das sei bei uns Alltag.

      Weil ja so oft in den Medien darüber berichtet wird, müssen Männer wohl wirklich im Kern animalische Bestien sein, die arme Rehkitze sofort zerfleischen, wenn keiner zuguckt.

      Ekelhafte und kalkulierte Meinungsmache!

      • „Weil ja so oft in den Medien darüber berichtet wird, müssen Männer wohl wirklich im Kern animalische Bestien sein, die arme Rehkitze sofort zerfleischen, wenn keiner zuguckt.“

        Offensichtlich funzt das bei den entscheidenden Stellen – während 95% der Frauen die Diskussion desinteressiert verfolgt, weil nicht selbst betroffen. Und dieses Desinteresse ist weit gefährlicher, als der Aktionismus einer Handvoll von Soziopathinnen.
        Eigentlich müssten JEDEM die logischen Brüche in den Gewalthypothesen auffallen. Nicht nur, dass der gewalttätige Mann selbst arbeiten geht, während die unterdrückte Frau zuhause bleiben muss, er schickt sie sogar zum Einkaufen, also in die Öffentlichkeit, wo sie alle Möglichkeiten hat, jeden zu jeder Tageszeit zu kontaktieren und um Hilfe zu bitten.
        Da werden magische Code-Worte kreiiert, mit denen sich die verängstigten Hascherl in Apotheken Hilfe herbeifabulieren können, obwohl sie ohne jede Magie leichter zum selben Ziel kommen könnten.
        5% bedeutet nach der Vorstellung, dass jede 20. Frau buchstäblich nur in Handschellen vor die Tür darf und ihr Mann in der Apotheke hinter ihr steht.
        Die Innenstädte müssen voll sein von angstschlotternden Frauen.
        Dumm nur, dass ich sie auch bei intensivster Beobachtung des öffentlichen Raumes nicht sehen kann.

        Jeder weiß es, auch die Feministas.
        Es geht ums Geld und um die Bekämpfung der als Feinde wahrgenommenen Männer.
        Wir haben es mit vielleicht 100 feministischen Aktivistinnen zu tun und mit einer Handvoll ebenso opportunistsicher, wie unfähiger Politiker.
        Und die finden sich wahrlich nicht nur „links“. Wer das behauptet, hat das Problem noch nicht erfasst und kämpft an falscher Stelle.

        • …und wir haben zig Millionen opportunistische Mitläufer, die finden, dass es doch wichtig und toll ist, dass man sich gegen die Unterdrückung von Frauen wendet. Die werden instrumentalisiert, wenn „die“ Männer in der Öffentlichkeit geschlachtet werden.

        • Borderlinerinnen dokumentieren mitunter jeden blauen Fleck beim Arzt, um das gegen ihren Freund verwenden zu können, wenn der mal nicht so will wie sie. Das Frauen keine Möglichkeit haben sich mitzuteilen ist wirklich schwer vorstellbar. Die muss schon in einer geschlossenen islamischen Gesellschaft leben, in der andere ihre Angelegenheiten regeln oder sowas.

    • Genau so funktioniert Propaganda. Rainer Mausfeld in seinem Vortrag „Warum schweigen die Lämmer?“ erklärt: Wenn man eine Lüge nur oft genug wiederholt, glauben die Leute diese Lüge auch wenn man ihnen direkt im Anschluss die Wahrheit erzählt.

      Genau das wird hier doch gemacht. Den großteil der Zeit geht es um hätte, wäre, könnte und ach die bösen Männer und ach diese armen Frauen, alleine mit diesen bösen Männern und dann kurz zum Schluss… äh, Fakten? Oh Sendezeit ist vorbei.

  17. „Die Rechnung ist nicht wirklich trivial,“
    Definitiv. Man kann hier nämlich außerdem im Prinzip nicht ohne weiteres mit den üblichen Begriffen bei Hypothesentests arbeiten, weil die beiden Gruppen eben verschiedene Experimente durchgeführt haben. Die stillschweigende Annahme in der Untersuchung ist ja, daß die 5. Frage keinen Einfluß auf die Beantwortung der anderen Fragen hat.
    Wenn allerdings manche Frauen vom Gefühl geleitet sind, so ungefähr die Hälfte der Antworten anzukreuzen oder durch das Lesen der vorherigen Fragen irgendwelche Priming-Effekte eintreten, dann stimmt auch diese Annahme nicht. Solange aber die Fragen bzw. die vollständige Untersuchung nicht veröffentlicht ist, stochert man nur im Nebel.
    Was unsere Presse natürlich nicht hindert, das ganze als eherne Wissenschaft zu verkaufen.

    • „Die stillschweigende Annahme in der Untersuchung ist ja, daß die 5. Frage keinen Einfluß auf die Beantwortung der anderen Fragen hat.“

      Dass man diese Annahme machen kann, glaub ich auch nicht. Aber selbst wenn man diese Annahme macht, kommt eben raus, dass 3% Unterschied zu klein sind, um die Null-Hypothese, dass es keine Gewalterfahrung gegeben hat, ablehnen zu können. Zumindest geschätzt unter etwas vereinfachenden Annahmen.

  18. Die Zahlen sind erschreckend hoch.

    Eine Studie mit der gleichen Methodik zu Männern würde mich auch interessieren.

    Und ausserdem eine Baseline, wie diese Werte sonst aussehen. So völlig im luft leeren Raum sind die schwer interpretierbar.

    • „Eine Studie mit der gleichen Methodik zu Männern würde mich auch interessieren.“

      Sie würde sehr ähnliche Ergebnisse liefern.
      Und deshalb wird es diese Studie nie geben. Denn sie würde die erste obsolet machen.
      Wer könnte Geld mit der Nachricht sammeln, dass Ehe- und nicht Ehepartner gegeneinander mehr oder weniger gewalttätig sind?
      Du kriegst nur Geld, wenn Du Frauen und/oder Kinder rettest. Je mehr, desto mehr 🙂

  19. „Rund 3 Prozent der Frauen in Deutschland wurden in der Zeit der strengen Kontaktbeschränkungen zu Hause Opfer körperlicher Gewalt, 3,6 Prozent wurden von ihrem Partner vergewaltigt.“

    Wie muss man das verstehen? Vergewaltigung ist keine Untergruppe von körperlicher Gewal

      • Okay, ich bin nicht der einzige, der sich fragt. mitm auf seinem Blog:
        Angeblich wurden 3,6% der befragten Frauen von ihrem (Ehe-)Partner zum Geschlechtsverkehr gezwungen, aber nur 3,1% der befragten Frauen berichten von körperlichen Auseinandersetzungen mit ihrem (Ehe-)Partner. Selbst wenn die 3,1% der Frauen eine echte Teilmenge der 3,6% sind (also jede körperliche Auseinandersetzung mit einem erzwungenen Geschlechtsverkehr einhergeht), stellt sich die Frage, mit welchen nichtkörperlichen Methoden die restlichen 0,5% zum Geschlechtsverkehr „gezwungen“ wurden

          • Theoretisch wäre das möglich, aber es gibt ja noch Gewalt ohne Vergewaltigung. Man müsste annehmen, dass so gut wie alle Vergewaltigungen ohne körperliche Gewalt stattfinden.

          • Nach der gesetzlichen Definition von Vergewaltigung ist das natürlich möglich. Das sind aber gerade sehr schwer entscheidbare Fälle, und es ist eher unwahrscheinlich, daß eine Frau, die allenfalls Amateuerjurist und befangen ist, hier korrekte Entscheidungen trifft.
            Das ist ein weiteres Problem dieser speziellen Frage, daß die Teilnehmerinnen der Aktion den Begriff „gezwungen sein“ anders auslegen als die Leser der Studie.

  20. „3,6 Prozent der Frauen wurden von ihrem Partner zum Geschlechtsverkehr gezwungen“

    Da haben sie also lesbische Konstellationen wohlweislich aus der Stichprobe herausgelassenen. Oder ist „Partner“ generisches Maskulinum?

  21. Die Pressenotiz zu der Studie enthält den Hinweis

    Ein Vergleich dieser Zahlen mit Daten aus der Zeit vor der Pandemie wäre nicht aussagekräftig, da bisherige Studien nach Gewalterfahrungen innerhalb längerer Zeiträume gefragt haben, nicht aber nach einem Zeitraum weniger Wochen.

    Ich verstehe diesen Hinweis nicht oder er ist kontraproduktiver Unsinn. Kann mich jemand aufklären, was hier gemeint ist?

    Wenn man damit die extrem hohen Werte für die Häufigkeit von Vergewaltigungen (Faktor 100 höher als nach PKS für 2019) in der Studie entschuldigen will, dann ist dies völliger Unsinn: Wenn man nach Vorfällen in einem kurzen Zeitraum fragt, werden das tendenziell weniger Vorfälle als bei einem langen Zeitraum sein. Der Zeitraum ist hier ca. um den Faktor 10 kleiner als bei der PKS (Kalenderjahr 2019), d.h. aus dem Faktor 100 wird eher der Faktor 1000.

    • Ein Vergleich mit (seriösen) Studien vor der Pandemie würde wegen der gewaltigen Differenz Fragen aufwerfen. Faktor hundert und so. Also lässt man es lieber bleiben und sollte jemand den Vergleich selbstständig anstellen, dann sagt man: Aber das war vor der Pandemie. Jetzt ist es hundertmal schlimmer. So ungefähr stelle ich mir das vor. Wenn in diesem kurzen Zeitraum 3.6 % der Frauen vergewaltigt wurden, wie viele wären es dann in einem Jahr? Das würde nur noch unterbelichtete Hardcore-Feministen überzeugen.

  22. Es gibt einen entscheidenden Unterschied zwischen wissenschaftlichen Studien, feministischen Studien und feministische Berichterstattung über wissenschaftliche Studien. Sobald der Feminismus mit rein spielt, wird gelogen.

    Aber Feminismus ist richtig und wichtig! lalalalalala – ich höre nicht und ich sehe nichts – lalalalalala

  23. @Crumar:

    je länger ich mich mit dem Fall beschäftige, desto mehr habe ich den Eindruck, daß da ziemliche Anfängerinnen am Werk waren. Die 2. Autorin wurde gestern im DFL interviewt:

    https://www.deutschlandfunkkultur.de/haeusliche-gewalt-die-risiken-der-heimquarantaene.1008.de.html?dram:article_id=477948 Die Risiken der Heimquarantäne – Cara Ebert im Gespräch mit Julius Stucke

    Einen furchtbar kompetenten Eindruch macht sie nicht, und der DLF-Interviewer war nicht helle genug, sie nach den statistischen Kuriositäten zu fragen. Aber beim DLF muß man feministisch sein, das reicht…

    Die Absicht der Zweiteilung war in beiden Fällen das #Dunkelfeld“ zu beziffern.

    Nein, davon war nie die Rede. Ich habe übrigens hier noch einen Anhang an meinen letzten Blogpost drangehängt, in dem ich die Listenexperiment-Methode erkläre und auf das Problem der extremen Unsicherheit von prozentual kleinen Ergebnisse hinsteuere. Mir ist ehrlich gesagt unklar, wie man das in den Griff kriegen kann. Würde mich interessieren. Aber vielleicht sind die Damen da fitter.

    fragte ich mich, was eigentlich das Ziel einer – per se anonymisierten Form – einer online-Befragung sein kann.

    Ich vermute mal, die Autorinnen unterstellen, daß der böse Gatte der interviewten Frau, die ja nicht aus der Wohnung darf, ständig beim Ausfüllen des Fragebogens über die Schulter schaut (wenn er sie nicht gerade verprügelt oder vergewaltigt). Alles dreht sich um die Annahme, die Frau beim Ausfüllen vor ihrem Mann zu schützen. Daß der Interviewten wie bei einem Präsenzinterview irgendetwas peinlich dem Interviewer gegenüber sein könnte, entfällt hier, weil online. Höchstens wenn der Verdacht besteht, daß die Daten nicht strikt vertraulich gespeichert werden, wäre das ein Grund, nicht wahr zu antworten.

    … ist das Ergebnis wie folgt, n: 633 befinden sich gleich verteilt in den Antwortmöglichkeiten 1-3,

    Kann nicht ganz folgen … die Antwortmöglichkeiten sind immer 0 (= „alle Fragen nein“) bis „alle Fragen ja“. Lies mal die oben erwähnte Erklärung, vielleicht können wir es dann leichter klären.

  24. @mitm
    Dein Link funktioniert nicht – bei mir. „Die Seite, die du im Blog suchst, ist nicht vorhanden.“

    @crumar
    Ich kann auch noch nicht folgen. Ich glaube, es wäre weniger verwirrend, mit Beipielverteilungen zu erklären, a la 10/10/10… geben an, dass 0/1/2… items für sie zutreffen, so wie ich es oben gemacht habe. Sonst kommt man sprachlich zu leicht bei „10 finden nur das erste item zutreffend, 10 nur das zweite,…“ an.
    By the way: Die Beschränkung auf drei items kam ursprünglich von dir, nicht mir 😉 Ist jetzt aber natürlich nur kluggeschissen 😉

      • @mitm @Renton

        Um das Chaos komplett zu machen, antworte ich einmal hier! 😉

        Zur Erklärung: Das von Renton gewählte Beispiel (Link auf Google Books in seinem Beitrag oben) hat drei items + sensibles item.
        Explizit im Text: „Die Teilnehmer sollen nun angeben, wie vielen der Items – nicht welchen (!) – sie zustimmen.“
        Von „entweder allen items zustimmen oder gar keinem“ war da nicht die Rede.
        D.h. ich bin natürlich von der Nennung der Anzahl ausgegangen – und damit, es gibt im ersten Fall drei Antwortmöglichkeiten, im zweiten Fall vier. Auch die Tabelle 2.4 „Logik des Listenexperiments“ deutet für mich darauf hin, dass dies so gemeint war.

        Es macht für mich auch keinen Sinn, zwei Gruppen zu bilden, in denen das sensible item „Ich bin in der letzten Woche sexuell genötigt/vergewaltigt worden“ nur der zweiten Gruppe vorgelegt wird.
        Weil diejenigen, die dieser Aussage (zusammen mit allen anderen) in G2 zustimmen mit denen deckungsgleich sind, denen es widerfahren ist.
        Angenommen, es sind diese 3,x% in G2, die allen items auf der Liste zustimmen.
        Von welchem Mittelwert soll man die abziehen?

        Ich bin auf die Studie und vor allem die Fragen gespannt, denn mir ist generell nicht klar, wie sich eine psychologische Methode, die sich der Untersuchung von Einstellungen/Meinungen/Vorurteilen (ungeachtet der Güte der Methode) widmet, zur Abfrage von Fakten eignen soll.
        Von „ich ärgere mich darüber, dass Juden auf der Welt immer noch so großen Einfluss haben“ zu „Ich ärgere mich darüber, in der letzten Woche sexuell genötigt/vergewaltigt worden zu sein“ ist ein großer Sprung.

        • Bis „…Auch die Tabelle 2.4 „Logik des Listenexperiments“ deutet für mich darauf hin, dass dies so gemeint war.“
          Alles korrekt. Die Kontrollgruppe, die wir mit G1 bezeichnet haben, bekommt drei items vorgelegt, G2 kriegt dieselben items plus das sensible vorgelegt.

          „Es macht für mich auch keinen Sinn, zwei Gruppen zu bilden, in denen das sensible item nur der zweiten Gruppe vorgelegt wird.“
          Ich nehme an, du meinst eine Aufspaltung von G2 in zwei weitere Untergruppen? Das wäre in der Tat Unfug. Die Kontrollgruppe ohne das sensible item gibt es ja bereits mit G1.

          „Angenommen, es sind diese 3,x% in G2, die allen items auf der Liste zustimmen.
          Von welchem Mittelwert soll man die abziehen?“

          Ich antworte mal nicht direkt auf die Frage, sondern versuche nochmal zu begründen, warum ein Mittelwert von z.B. 2 bei G1 zusammen mit einem Mittelwert von 2,2 bei G2 bedeutet, dass – wahrscheinlich – der Anteil (2,2 – 2) = 0,2 = 20% von G2 das zusätzliche item für sich als zutreffend erachtet:
          Ohne das zusätzliche item wäre bei G2 auch der Mittelwert 2 herausgekommen, da die Gruppen statistisch als identisch angesehen werden, bzw. als repräsentativ für die Gesamtbevölkerung. Das zusätzliche item sorgt für eine Erhöhung des Mittelwerts um 0 bis 1, je nachdem, welcher Anteil von G2 das item für sich als zutreffend erachtet. Sieht es keiner als für sich zutreffend an, bleibt der Mittelwert natürlich gleich (=Erhöhung um 0). Sehen es alle als für sich zutreffend an, hat jeder in seiner Strichliste, mit der er die Anzahl der persönlich für ihn zutreffenden items zählt, einen Strich mehr. Der Mittelwert erhöht sich also um 1.
          Bei 50% um 0,5; bei 20% um 0,2; usw…

          „mir ist generell nicht klar, wie sich eine psychologische Methode, die sich der Untersuchung von Einstellungen/Meinungen/Vorurteilen (ungeachtet der Güte der Methode) widmet, zur Abfrage von Fakten eignen soll.“

          Weil die Annahme ist, dass das Angeben bestimmter Fakten bzw. persönlicher Erlebnisse dem gleichen Stigma unterliegt wie das Äußern einer geächteten Meinung.

          • @Renton: ich habe fast zeitgleich um 13:00 einen Anwort geschrieben, die war auf dem Feed https://allesevolution.wordpress.com/comments/feed/ sofort sichtbar, aber nach über 5 Minuten hier noch nicht – irgendwie scheint wordpress Performance-probleme zu haben. Vielleicht waren auch zu viele Links drin.

            Zum Inhalt: das Beispiel in dem Buich ist völlig mMn vergeigt und lenkt die Aufmerksamkeit auf die Mittelwerte der Zahl der Ja-Antworten pro Person. Das halte ich inzwischen für den Grundfehler. Stattdessen muß jede einzelne Antwort als eigenes Ereignis angesehen werden, nur unter dieser Annahme kann man von einer Binomialverteilung der Ergebnisse ausgehen.

          • @Renton

            „Weil die Annahme ist, dass das Angeben bestimmter Fakten bzw. persönlicher Erlebnisse dem gleichen Stigma unterliegt wie das Äußern einer geächteten Meinung.“

            Dazu hatte ich weiter oben geschrieben, dass dem schon 1995 damit begegnet worden ist, zusätzlich zu einem mündlichen Interview eine schriftliche Befragung zu machen.
            Daher war mir nicht klar, warum man bei einer anonymisierten online-Befragung die sensible Frage nicht direkt stellen kann.
            Mir wurde sinngemäß entgegnet, die Möglichkeit existiere, dass der männliche Partner das online-Verhalten persönlich überwache – womit sich die online-Befragung dann aber auch erledigt hätte, zwei Gruppen hin oder her.
            Ich habe den Sinn in der Methode der Befragung immer noch nicht verstanden.

          • Ich schätze, es gibt genug Menschen wie mich, die der Anonymität einer Onlinebefragung misstrauen. Ob zurecht oder nicht, ist dabei irrelevant.
            Deshalb das Listenexperiment.

          • „Mir wurde sinngemäß entgegnet, die Möglichkeit existiere, dass der männliche Partner das online-Verhalten persönlich überwache – “

            Crumar, du Hascherl!
            Ist es noch nicht bei Dir angekommen, dass wir in einer Gesellschaft von Millionen Kampusch/Priklopil-Verhältnissen leben?
            Gerade WEIL so wenig um Hilfe nachgesucht worden ist in den letzten Wochen, MUSS das Ausmaß der Tragödie der Frauen in D noch um ein Vielfaches größer sein, als bisher vermutet.
            An diese armen Seelen, die in irgendwelchen Kellerlöchern an ihr Bett gekettet ihr Dasein fristen – bis die Quarantäne-Maßnahmen wieder aufgehoben werden – und vor Angst zu atmen sich kaum trauen, kommt man nur mit Tricks, die nur Frauen, aber keine Männer verstehen.
            Ich zum Beispiel verstehe nicht, wieso es einer derart kryptischen Herangehensweise bedarf, wenn doch die Frau offensichtlich zwecks Beantwortung des Fragebogens Zugang zum Internet und damit zur gesamten Welt hat.
            DAS wäre eine Frage, die ich naives Männlein zu gern beantwortet hätte.

          • @carnofis @Renton

            „Gerade WEIL so wenig um Hilfe nachgesucht worden ist in den letzten Wochen, MUSS das Ausmaß der Tragödie der Frauen in D noch um ein Vielfaches größer sein, als bisher vermutet.“

            Ja – und die Dunkelziffer ist vermutlich noch höher. 😉

            „Ich schätze, es gibt genug Menschen wie mich, die der Anonymität einer Onlinebefragung misstrauen. Ob zurecht oder nicht, ist dabei irrelevant.
            Deshalb das Listenexperiment.“

            Und um deiner Abneigung gegenüber einer solchen Befragung entgegen zu kommen machen wir doch einfach ein…ähhh…Onlinebefragung?
            Sicherheitshalber gleich zwei mit zwei verschiedenen Gruppen, bei denen ich nicht weiß, wie viele Rentons sich in G1 oder G2 befinden, die der Anonymität von Onlinebefragungen prinzipiell misstrauen??

            Um so mehr ich darüber nachdenke und um so mehr wir hier diskutieren, desto unsinniger finde ich diese Studie.

          • crumar,

            der Unterschied ist doch, dass bei einem Listenexperiment zwar meine Anonymität vielleicht nicht gewährleistet ist, wegen IP-Adresse und so, aber die Angabe „2 von 5“ trotz fehlender Anonymität so unverfänglich ist, dass ich diesen Teil meiner Erfahrung preisgeben würde.

            Die direkte Frage „Hat Margarete Stockdoofski sie während des Shutdowns vergewaltigt, auch mental?“ bzw. die Zustimmung zur Aussage „Die olle Trulla hat meinen Geist und/oder Körper frittiert“ zu erteilen, ist mir aber vielleicht doch zu persönlich, weil prinzipiell zu mir zurückverfolgbar.

            P.S.: Was für Beispiele wähle ich hier? Ach, egal.

        • @crumar: hast Du schon meinem Kommentar https://allesevolution.wordpress.com/2020/06/03/corona-und-haeusliche-gewalt-studie-der-tu-muenchen/#comment-485401 gelesen? Den habe ich erst kurz vor deinem abgeschickt. Die meisten Fragen werden dort glaube ich gelöst.

          Zu dem Google Books-Auszug: informell ist die Listenmethode dort genauso beschrieben wie in anderen Quellen. Das Beispiel ist leider komplett vergeigt.

          1. Es fehlt der Eintrag für 0 Ja-Antworten.

          2. Die beispielhaften Verteilungen 1 und 2 der Experimentalgruppe widersprechen der grundlegenden Annahme, daß man die Zahl der Ja-Antworten auf die unkritischen Fragen durch die Ergebnisse bei der Kontrollgruppe schätzen kann. Diese Beispiele sind Unsinn.

          3. Ebenfalls ist es eigentlich ein nur ein Sonderfall, daß (bei gleich großer Kontroll- und Experimentalgruppe) die absolute Zahl der Ja-Antworten bei beiden Gruppen gleich ist, anstatt anzusteigen. Die 4. Frage hat dann 0 Ja-Antworten. Diesen Sonderfall als einzige denkbaren hinzustellen und dann über den gesunkenen Mittelwert zu diskutieren, ist völliger Quatsch. Eine zentrale Annahme des ganzen Verfahrens ist doch, daß dieser Mittelwert gleich bleibt, wenn man vom der Kontrollgruppe auf die Experimentalgruppe schließt.

          4. Eine xDiskussion der Unsicherheitsbereiche analog zu meiner fehlt völlig.

          Sorry, aber das ist völlig daneben, was die Buchautoren da abliefern.

          • 1. Korrekt, die Möglichkeit 0 wurde unterschlagen.

            2. Nein. Wo soll da ein Widerspruch sein? Bei Verteilung 1 z.B. ist die Verteilung aus der Kontrollgruppe entstanden, indem alle aus Zeile „3“ in Zeile „4“ gerutscht sind und 50 aus Zeile „2“ nach „3“, alle wegen Zustimmung zum vierten item. Ich sehe da keinen Widerspruch.

            3. „Ebenfalls ist es eigentlich ein nur ein Sonderfall, daß […] die absolute Zahl der Ja-Antworten bei beiden Gruppen gleich ist, anstatt anzusteigen.“
            Wo ist das der Fall? In der Tabelle nicht. Verwechselst du die Gesamtzahl der Antwortgeber von 300 mit der Anzahl der Ja-Antworten?

            4. Jupp, die Unsicherheitsbereiche werden nicht diskutiert. Für eine Einführung ist das aber auch nicht nötig.

          • „Verwechselst du die Gesamtzahl der Antwortgeber von 300 mit der Anzahl der Ja-Antworten?“
            Ja, sorry, mein Fehler, danke für den Hinweis.

            Das macht die Sache aber eher noch schlimmer. Die Gesamtzahl der Antworten auf die 3 unkritischen Fragen beträgt
            bei der Kontrollgruppe 600
            bei Verteilung 1: 350,
            bei Verteilung 2: 550,
            bei Verteilung 3: 750.

            Zentrale Annahme der Methode ist aber, daß die Kontrollgruppe die Gesamtzahl der Antworten auf die 3 unkritischen Fragen exakt prognostiziert. Alle drei Verteilungen widersprechen dieser Annahme.

          • Du irrst erneut. Ich vermute, Du hast gerechnet, beispielhaft bei Gruppe 1:
            100×1 + 50×2 + 50×3 = 350. Das ist aber Quatsch.
            Bei Gruppe 1 haben alle Leute, die in Zeile „3“ „drei items treffen auf mich zu“ angegeben haben, zwei ursprüngliche und das zusätzliche item bejaht. Erinnerst du dich? Die Verschiebung war nämlich 50 aus Zeile „2“ nach „3“. Aus der ursprünglichen Zeile „3“ wiederum sind alle nach „4“ abgewandert, bejahen also auch das zusätzliche item. Zeile „1“ und der Rest von „2“ blieben unverändert.
            Damit gibt es aus Zeile 1 100 Ja-Antworten für die ursprünglichen items, aus Zeile „2“ ebenfalls 2×50 = 100, aus Zeile 3 auch wieder 2×50 = 100 (eine der Antworten war ja das zusätzliche item!) und aus Zeile „4“ (die Du komplett ignoriert hast) kommen noch 3×100 = 300 Ja-Antworten auf die ursprünglichen items, macht zusammen 600.
            Alles paletti?

          • @Renton

            Du hast erneut recht 😉

            „aus Zeile #4″ (die Du komplett ignoriert hast)“

            Stimmt, das war falsch. Mit Zeile 4 wäre die Gesamtzahl der Ja-Antworten auf alle 4 Fragen bei allen drei Verteilungen 750, also 150 mehr als bei der Kontrollgruppe.

            Wobei ich diese Spekulationen, wie sich die Ja-Antworten auf die Teilnehmer verteilen, eher unproduktiv und vom wesentlichen ablenkend finde. Die Methode macht prinzipiell keine Annahmen darüber und man weiß auch nichts darüber.

            logisch gesehen finden hier ja zwei separate Experimente statt: Zuerst kommt das Experiment mit der Kontrollgruppe, dies liefert die Gesamtzahl X1 der Ja-Antworten auf die unkritischen Fragen.

            Logisch danach kommt das Experiment mit der anderen Gruppe, das zunächst die Gesamtzahl X2 der Ja-Antworten auf alle Fragen liefert und bei der weiteren Auswertung die Zahl Y = X2 – X1 der vermutlichen Ja-Antworten auf die kritische Frage Die gesuchte Quote Q ist jetzt Y / n, n = Zahl der Teilnehmer.

            Man kann Q auch anders ausrechnen, indem man die Durchschnitte der Zahlen der der Ja-Antworten pro Teilnehmer bildet und voneinander subtrahiert. Die Denkweise ist insofern falsch, als man hier keinen Ansatzpunkt mehr hat, über Unsicherheitsbereiche nachzudenken (sie auszurechnen, s.o.), und das ist hier extrem wichtig.

            Im Buch steht übrigens der leicht zu übersehende Passus „… sofern nun die Experimentalgruppe einen signifikant höheren Mittelwert an Zustimmungen aufweist als die Kontrollgruppe …“. Was bedeutet „signifikant höher“ konkret? Im Buchbeispiel ist die Quote Q = Differenz der Mittelwerte = 0.5, das ist „signifikant höher“. auch 20% oder 3.6%?

          • @mitm

            1. Das ist der Link auf deine Antwort zu Pjotr.
            2. Renton hat das verdammte Beispiel verlinkt und ich habe mich nur darauf bezogen, weil er es verlinkt hatte!!! 😦

            3. Aber generell: Stimmt, 0 Antworten wurden nicht diskutiert.
            4. Eigentlich müsste man jedes abgefragte item vorher (mehrfach) einzeln testen.
            5. Das Problem wird um so relevanter, desto kleiner die Differenzen der Mittelwerte werden. Wenn 0,2 20% entsprechen, dann ist die Differenz im vorliegenden Fall 0,03x%
            Ist das nicht eher statistisches rauschen?

          • @mitm

            „Du hast erneut recht“

            Naja, ich habe ein Diplom in Rechthaben und Besserwisserei. Auf der Urkunde nennen sie es Physik 😉

            „Wobei ich diese Spekulationen, wie sich die Ja-Antworten auf die Teilnehmer verteilen, eher unproduktiv und vom wesentlichen ablenkend finde.“

            Ich finde es didaktisch gar nicht verkehrt, schließlich soll die Methode erstmal nur vorgestellt werden. Aber der eine versteht es besser so, der andere so.

            „… sofern nun die Experimentalgruppe einen signifikant höheren Mittelwert an Zustimmungen aufweist als die Kontrollgruppe…“

            Ist der Knackpunkt, da hast du ganz recht. Gut möglich, dass Deine Berechnung über Binomialverteilung richtig ist, die du oben vorgestellt hast. (Ich bin mir nicht sicher. Das Thema ist etwas länger her.) Das gilt dann für beide Mittelwerte. Man muss also den Fehler auf X1 und X2 berechnen und dann mittels Fehlerfortpflanzung den Fehler für Y. (Ob man den Fehler für die Absolutwerte oder die Mittelwerte berechnet, ist ja egal, da bei der Mittelwertbildung nur der fehlerfreie Vorfaktor 1/n dazukommt.) Da X1 und X2 unabhängig voneinander sein sollten, ist der Gesamtfehler Fy von Y ist dann die Wurzel aus der Summe des Quadrates der Einzelfehler Fx1 und Fx2:
            Fy = sqrt(Fx1²+Fx2²)

            Aus den von Dir oben angenommenen Fehlerintervallen von 84 ergibt sich dann ein Fehlerintervall für Y von 119. Die vermuteten Y=70 Ja-Antworten liegen also weit innerhalb dieser Fehlertoleranz und ein seriöser Wissenschaftler würde nur schließen: Erzwungener Geschlechtsverkehr ist so selten, dass er für mich nicht messbar war.

            *Die Formel für die Fehlerfortpflanzung ist die erste in diesem Abschnitt hier:
            https://de.wikipedia.org/wiki/Fehlerfortpflanzung#Voneinander_unabh%C3%A4ngige_fehlerbehaftete_Gr%C3%B6%C3%9Fen

          • @crumar
            „Ist das nicht eher statistisches rauschen?“

            Siehe meinen Post hier drüber: Ja.

          • @Renton:

            ein seriöser Wissenschaftler würde nur schließen: Erzwungener Geschlechtsverkehr ist so selten, dass er für mich nicht messbar war.

            Darauf wollte ich die ganze Zeit hinaus.

            Die genaue Berechnung bzw. Schätzung der Fehler ist kompliziert und zusätzlich noch von weiteren Faktoren beeinflußt (z.B. Vermeiden der Antworten 0 und „alle“), ändert aber mMn nichts an den Größenordnungen und an der grundlegenden Erkenntnis, daß Listenexperimente (ohne zusätzliche Maßnahmen) keine genauen numerischen Werte liefern können und ungeeignet sind, kleine Effekte im Bereich weniger Prozent zu nachzuweisen.

            Weitere Diskussionen sollten wir auf den Zeitpunkt verschieben, wenn die Studie vorliegt und man nachlesen kann, was da genau gemacht worden ist.

          • „Weitere Diskussionen sollten wir auf den Zeitpunkt verschieben, wenn die Studie vorliegt und man nachlesen kann, was da genau gemacht worden ist.“

            So sei es.

            Allerdings werde ich die nächste Zeit vermutlich etwas AE-abstinent sein. Ihr müsst auf meine zugegebenermaßen begrenzte Expertise dann verzichten.
            Es sei denn, ihr sagt mit über rentonindiätweb.de Bescheid, dass und wo ich einsteigen soll.

          • „Aus den von Dir oben angenommenen Fehlerintervallen von 84 ergibt sich dann ein Fehlerintervall für Y von 119.“

            Auf diese Zahl bin ich auch gekommen. Ich hab es auch nochmal simuliert, eine Millionen mal das komplette Listenexperiment. Da kommt es auch raus: ab 121 (=6.32% von 1900) wird es signifikant. .

            Die könnten aber noch argumentieren, dass in diesem Fall ein einseitiger Test reicht, and dann wird es ab 101 (=5.26% von 1900) signifikant.

            Aber stimmt, es macht Sinn, die Studie abzuwarten.

          • @mitm
            @navido

            mitm
            1. Wie kamst Du oben auf den 40%-Wert für die Binomialverteilung? War der exemplarisch gemeint?
            2. Gemäß Formel für die Standardverteilung einer Binomialverteilung s = sqrt(n x p x (1-p) ) mit n Durchgängen und Wahrscheinlichkeit p komme ich nur auf s = 43 für p = 0,4 und n = 7600, also die Hälfte von Deinen 84. Gehst Du einfach von zwei Standardabweichungen aus?

            navido
            Wie genau sah Deine Simulation aus? Mit welchen Werten hast Du wie gerechnet?

          • Kurz zur Rechnung und dann die Simulation.

            s= sqrt(n x p x (1-p) )
            ist die Standardabweichung einer Gruppe. Die Standardabweichung der Differenz ist um einen Faktor sqrt(2) größer (siehe renton) , und Signifikanz entspricht 2 Standardabweichungen. Das ist bei Gaußverteilungen das 95% Intervall (1.96 Standardabweichungen wäre etwas genauer). Durch die große Anzahl ist Gaußverteilung eine sehr gute Näherung. Für Signifikanz müssen sich die Gruppen dann um mindestens
            n=2*sqrt(2)*sqrt(n x p x (1-p) )
            unterscheiden. Bei p=0.5 ist n=120, und bei p=0.4 ist n=117.6. So hatte ich das gerechnet.

            Bei den Simulation hab ich p=0.5 gesetzt. Ist etwas einfacher, und der Unterschied zu p=0.4 ist sehr klein. Für jedes Einzelexperiment erzeuge ich zwei Vektoren, jeweils 7200 Zufallszahlen aus 0 und 1, bilde für jeden Vektor die Summe der Elemente, und dann die Differenz dieser Summen. Das Ganze mache ich eine Millionen mal und hab dann einen Vektor aus einer Millionen Ergebnissen. Für einen zweiseitigen Test nehm ich den Betrag der Ergebnisse, sortiere das von klein nach groß und lass mir den 950000.ten Wert ausgeben. Der ist 121. Das bedeutet, dass 5% der Ergebnisse sich mindestens um 121 unterscheiden. Bei einem einseitigen Test nehm ich keinen Betrag, und dann kommt 101 raus.

            Ist alles in Matlab geschrieben. Der Code ist sehr kurz und die ganze Rechnung dauert rund 3 Minuten.

          • @Renton:

            40%-Wert für die Binomialverteilung … exemplarisch gemeint?

            ja. Ich habe einige Werte zwischen 20 und 80% durchprobiert, das ändert nur wenig an den Werten.

            Gehst Du einfach von zwei Standardabweichungen aus?

            Um die Standardabweichung geht es hier nicht (jedenfalls nicht direkt), sondern um das Konfidenzintervall, mit dem üblichen Konfidenzniveau von 95 %.

            Bei der Standardabweichung geht es ja darum, wie weit bei Wiederholung des Experiments mit festem Wert p (hier = 0,4) streuen.

            Beim Konfidenzintervall geht es darum, welche anderen Werte für p eventuell auch so gerade noch zu dem Ergebnis führen können, das bei der einen Ausführung des Experiments beobachtet wurde.

            In allgemeiner Form ist das grauenhaft komplizierte Mathematik (von der ich keine Ahnung habe), bei Binomialverteilungen gibt es die einfachen Formeln, s. auch hier.

            Das Konfidenzniveau von 95 % führt zu den beiden Werte des 1. Parameters 0.025 bzw. 0.975 bei den beiden BETAINV-Aufrufen.

            Ich habe auch deutlich kleinere Konfidenzniveaus ausprobiert, z.B. 80% (Parameter 0.1 bzw. 0.9) oder 60%. Das hat die Konfidenzintervalle in etwa halbiert. D.h. man könnte damit etwas kleinere Effekte nachweisen, belügt sich damit aber natürlich selber, denn die Ergebnisse werden deswegen ja nicht vertrauenswürdiger.

            Noch mal zur Standardabweichung: auf die Standardabweichung kommt man hier leicht, weil man das Teilexperiment B mit der Hauptgruppe für eine Wiederholung des Teilexperiments A mit der Referenzgruppe hält, mit gleichem Wert p für den Anteil der Ja-Antworten. Da ist sehr verführerisch, aber falsch. Man kennt den exakten Wert von p nämlich nicht.
            Teilexperiment B ist auch kein Versuch, p erneut zu bestimmen oder die Unsicherheit von p zu verkleinern, denn der Test ist nicht der gleiche.

          • „Noch mal zur Standardabweichung: auf die Standardabweichung kommt man hier leicht, …Da ist sehr verführerisch, aber falsch. Man kennt den exakten Wert von p nämlich nicht.“

            Hier muss man aber aufpassen, nicht zwei Sachen durcheinander zu bringen. Wir stark p statistisch schwankt ist natürlich wichtig, weil man ja wissen will, ob kleine Unterschiede durch Zufall erklärbar sind. Aber für die Berechnung der Konfidenzintervalle oder Standardabweichungen spielen diese Unterschiede praktisch keine Rolle. Ob p nun 0.4 oder 0.39 ist, hat auf das Konfidenzintervall fast keinen Einfluss.

            Das ist bei gaussverteilten Größen analog. Wenn man die Standardabweichung weiß, ist das Konfidenzintrevall 1.96 Standardabweichungen. Wenn man sie nicht weiß und das genauer rechnen will, nimmt man die Student-t Verteilung, aber schon bei 100 Mittelungen ist das Konfidenzintervall 1.98 statt 1.96 Standardabweichungen, also praktisch gleich.

            Aber die ganz genauen Zahlen sind hier eigentlich sowieso nicht so wichtig. Es reicht, ein Gefühl für die Größenordnung zu haben. In unsere Berechnungen gehen Vermutungen ein, die viel wichtiger sind, z.B. ob die Antworten auf die neutralen Fragen statistisch unabhängig sind. Wenn wir die Rohdaten hätten, könnten wir die Konfidenzintervalle mit Permutationsstatistik viel besser und einfacher berechnen.

          • Vermutungen … z.B. ob die Antworten auf die neutralen Fragen statistisch unabhängig sind. Wenn wir die Rohdaten hätten, …

            Die einzelnen Antworten auf die neutralen Fragen hat man ja gerade nicht bei dem Verfahren, deshalb kann man auch keine Korrelationen zwischen den Antworten bestimmen (falls das gemeint war). Als Rohdaten hat man nur die Anzahl der Ja-Antworten pro Person.
            Die neutralen Fragen bilden statistisch gesehen einen völlig amorphen Haufen, über den ich nichts weiß und den ich nicht weiter analysieren oder strukturieren kann.

          • Nachtrag: bei meinem Rechenverfahren zur Bestimmung der Unsicherheitsbereiche habe ich die Gesamtzahl der Ja-Antworten gleichmäßig auf die Fragen verteilt. Bzw. anders gesehen angenommen, daß bei allen Fragen die gleiche Quote von Ja-Antworten vorliegt. Nur unter dieser Annahme hat man eine Binomialverteilung (bezogen auf die Einzelantworten) und kann die simplen Formeln zur Berechnung der Unsicherheitsbereiche benutzen.

            Diese Annahme ist natürlich willkürlich. Fragen mit extrem vielen oder extrem wenigen Ja-Antworten sollte man vermeiden, weil die Interviewten vermutlich bemerken, daß diese Frage fast immer gleich beantwortet wird und die Vertraulichkeit des Ergebnisses reduziert. Man wird also typischerweise neutrale Fragen mit einer voraussichtlichen Quote von Ja-Antworten im mittleren Bereich, z.B. 0.3 bis 0.7, wählen. Dann ist vermutlich der Fehler durch die vereinfachende Annahme gleicher Quoten relativ klein. Müßte man aber genauer untersuchen, oder gleich ein anderes Verfahren zur Bestimmung der Unsicherheitsbereiche wählen.

          • @mitm

            „Die einzelnen Antworten auf die neutralen Fragen hat man ja gerade nicht bei dem Verfahren, deshalb kann man auch keine Korrelationen zwischen den Antworten bestimmen (falls das gemeint war). Als Rohdaten hat man nur die Anzahl der Ja-Antworten pro Person.“

            Ja, das war gemeint. An den Rohdaten kann man diese Korrelationen gar nicht sehen, ist ja nur die Anzahl der Ja-Antworten für jede Frau, aber wenn wir das hier beispielhaft rechnen, müssen wir da Annahmen machen. Wenn wir die Rohdaten hätten, müssen wir diese Korrelationen gar nicht wissen. Die ganze Statistik könnte ganz anders funktionieren: Man erzeugt sich z.B. Tausende von Surrogatdatensätzen, wobei man jeweils die 3600 Rohdaten zufällig auf 2 Gruppen verteilt, und die Unterschiede zwischen den Gruppen mit dem Originalunterschied vergleicht. Wenn der Originalunterschied größer ist als 95% der Surrogatunterschiede, ist es signifikant.

            Nachtrag zu meinem vorherigen Beitrag. Mit „p hat fast keinen Einfluss auf das Konfidenzintervall“ meinte ich nur die Breite des Intervalls. Mittelpunkt ist immer der gemessene Wert, hier N*p.

      • Die Anmerkung [1] in Deinem Text finde ich sehr erhellend. 3,6% sind gleichbedeutend mit einer Million Vergewaltigungen. Nicht mal der alliierte Einmarsch ’45 hat gemäß der üblichen Schätzungen so viele Vergewaltigungen mit sich gebracht.
        Warum machen sich die „Journalisten“ nicht auch mal solche Gedanken und ordnen die „Studie“ entsprechend ein? Wenn das ein paar Hobbyforenschreiber mit latenter Internetsucht hinkriegen, warum nicht die Leute, deren Beruf das doch sein müsste?!?

        • „Warum machen sich die „Journalisten“ nicht auch mal solche Gedanken“
          Journalisten sind i.d.R. sprachlich begabt und mathematisch unbegabt (zumindest in der mir persönlich bekannten Stichprobe). Belletristik erfordert assoziatives Denken und Verstehen, der Klang der Wort und ihre Nebenbedeutungen schwingen mit, das ist eben Kunst und keine schnöde Mathematik (das meine ich nicht so negativ, wie es jetzt klingt).

          „solche Gedanken“, darunter einfache Überschlagsrechnungen, schaffen die meisten nicht. Deswegen verfängt ja auch die Opferstatuskultur so gut, die ist rein gefühlsbasiert, nicht zahlenbasiert.

          • Journalisten sollen gerne ihre Talente im sprachlichen Bereich haben, aber grundlegende mathematische Fertigkeiten wie eine Überschlagsrechnung sollten sie trotzdem beherrschen. Das gehört zum investigativen Teil des Berufsbildes, und die meisten Schreiberlinge haben immerhin Abitur. Da sollten sie simple Prozentrechnung beherrschen.
            Mathelehrer müssen auch die Rechtschreibung ihrer Schützlinge korrigieren, grummel…

          • „Warum machen sich die „Journalisten“ nicht auch mal solche Gedanken“

            Warum sollten sie? Nach wie vor ist das Geilste die Reichweite. Die lässt sich über Klicks inzwischen themenspezifisch betrachten. Und da ziehen Gewalt, Sex, Gender extrem gut. Denn das geht eigentlich jeden an.

            Option 1: „“Wir Frauen haben es kommen sehen!“ Repräsentative Untersuchung der TU München bestätigt massive Zunahme von Gewalt und Vergewaltigungen während des Lockdowns“

            Option 2: „“Das stimmt doch hinten und vorne nicht!“ TU München veröffentlicht umstrittene Studie zum Thema Gewalt gegen Frauen während des Lockdowns“

            Bei Option 2 würden sich viele fragen, warum sowas überhaupt vermeldet wird.
            Hinzu kommt, dass Journalisten sich inzwischen selbst als „Haltungsjournalisten“ begreifen, die ihre Haltung in die Welt tragen wollen und daher schamlos agitieren. Und die tun das für ihre „gute Sache“. Damit die Menschen sehen und lesen, wie bedroht die Frauen in unserer Gesellschaft sind. Eine Art Beschützer-Agitprop, der dann durch die feministische Chefin vom Dienst noch angefeuert wird.

            Also wird die Sau lautstark durchs Dorf getrieben. Zumal, wenn dpa das schon irgendwie eingeordnet hat. Dann werden in der Regel auch die Basics nicht hinterfragt.

            Der Komplex wird dann nur von so Sparten-YouTuber wie Küppersbusch eingeordnet, der hier im Thread verlinkt ist, aber komplett neben dem Mainstream steht.

  25. Warum machen sich die „Journalisten“ nicht auch mal solche Gedanken und ordnen die „Studie“ entsprechend ein? Wenn das ein paar Hobbyforenschreiber mit latenter Internetsucht hinkriegen, warum nicht die Leute, deren Beruf das doch sein müsste?!?

    Wäre ich naiv, würde ich sagen, die vornehmste und wichtigste Aufgabe des Journalisten ist die Recherche. Tatsächlich aber bedient ein grosser Teil der Journalisten nur die Erwartungshaltung ihres Publikums. Der Fall Relotius war genau das: Er bediente die Spiegelfans, indem er jedes gängige Klischee der Spiegelleser scheinbar bestätigte. So war – um mal ein konkretes Beispiel zu nennen – der Trumpwähler immer ein Waffennarr, etwas beschränkt, rassistisch und ein Hinterwäldler sowieso. Nun ist es ja nicht so, dass sich solch ein Typ nicht finden liesse, der in etwa dem Klischee entspricht. Nur gab es bei ihm nie irgendwas, was nicht Klischee war. Und so waren sie, die sich so gebildet und kritisch fühlenden Spiegelfans, zufrieden, weil ihnen von Relotius immer und immer wieder bestätigt wurde, wie recht sie doch von Anfang an hatten.

  26. Diese Steinert/Ebert-Studie wird wirklich ein Dauerbrenner. Im genderama-Post von heute wird unter 3. Die Post ein Leserbrief wiedergegeben, der angeblich die Studie gefunden hat und dabei auf die Pressemitteilung zur Steinert-Studie verweist.

    Die wiederum hat ganz unten eine Box „Mehr Informationen:“ und verweist dort auf eine „Eine kleinere Umfrage“, die „im April in das regelmäßige „COVID-19 Snapshot Monitoring (COSMO)“ eingeflossen war„.

    Ich war bisher davon ausgegangen, daß das eine andere Studie ist. Insb. ist dort die Zahl der Teilnehmer wesentlich kleiner. Es kann natürlich gut sein, daß in der „großen“ Studie die gleichen Fragen verwendet wurden.

  27. Pingback: Warum weniger Gewalt? | uepsilonniks

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.