„… quod enim mavult homo verum esse, id potias credit“, d.h. etwa “… was jemand wahrhaben möchte, dem schenkt er Vertrauen/das erkennt er an/das glaubt er]“, so schrieb Francis Bacon im Jahr 1620 in seinem „Novum Organum“, genau: im Aphorismus XLIX des ersten Buches im „Novum Organum“, und hat damit etwas benannt, was man heute einen kognitiven Bias oder eine kognitive Verzerrung nennen würde. Dabei handelt es sich um systematische Denkfehler, die zu falschen Schlussfolgerungen oder falschen Einschätzungen von Dingen führen können. Und obwohl kognitive Verzerrungen heute in aller Munde sind, scheint dies nicht dazu zu führen, dass Menschen heutzutage besser darin sind, sie zu vermeiden, als das in vorangegangenen Jahrzehnten und Jahrhunderten der Fall war.

Dabei haben wir heute jede Menge Experten, von denen man mit Bezug auf ihr Wissens-/Interessengebiet erwarten würde, dass sie kognitiven Verzerrungen mit Bezug auf dieses Gebiet besser erkennen und vermeiden können als der Durchschnittsmensch. Und wir haben die Wissenschaft, die einen Vorrat von Methoden entwickelt hat, um Dingen auf den Grund zu gehen, ohne den kognitiven Verzerrungen einzelner Personen, seien es diejenigen von Forschern oder Befragten, zum Opfer zu fallen.

Beispielsweise ist die sogenannte Delphi-Methode eine Methode, bei der eine im mehreren Gesprächsrunden organisierte strukturierte Diskussion einer Reihe von Experten stattfindet, um möglichst gute Vorhersagen mit Bezug auf die in Frage stehenden Entwicklungen oder mit Bezug auf die Wahrscheinlichkeit des Eintretens bestimmter Ereignisse zu erreichen. Heutzutage wird sie auch dazu instrumentalisiert, um möglichst einen Experten-„Konsens“ zu generieren (https://www.rand.org/topics/delphi-method.html), dem wir in der jüngeren Vergangenheit u.a. hinsichtlich der gentherapeutischen Intervention wegen SARS-CoV-2 und hinsichtlich eines angeblich menschengemachten Klimawandels zum Opfer gefallen sind.

Bevölkerungsbefragungen, bei denen verschiedene Methoden der Stichprobenziehung, der Datenerhebung anhand standardisierter Fragen und der statistische Auswertung der gewonnenen Daten verwendet werden, sollen ebenfalls Aufschluss über zu erwartende Entwicklungen oder über die Einstellungen bezüglich der interessierenden Sache geben können. Sie werden z.B. zur Vorhersage der Ausgänge von Wahlen benutzt oder – wie unlängst hier in Wales mit Bezug auf die Einführung einer Höchstgeschwindigkeit vom 20 km pro Stunde in bewohnten Gebieten – dazu, das Ausmaß der Zustimmung in der Bevölkerung zu einer bestimmten Politik oder Maßnahme festzustellen.

Nur – in der Regel liegen die auf der Basis dieser oder anderer Methoden gewonnen Vorhersagen mehr oder weniger stark daneben. Ein bekanntes Beispiel dafür ist der Ausgang des Brexit-Referendums, also der Abstimmung der Bevölkerung über den Austritt oder den Verbleib des Vereinigten Königreiches aus/in der EU, der für Politiker, Medien und pundits gleichermaßen unerwartet kam – und, wäre er erwartet worden, wahrscheinlich dazu geführt hätte, dass gar keine Abstimmung stattgefunden hätte.

“YouGov, Populus, ComRes, ORB, Ipsos-Mori and Survation, all failed to correctly predict the outcome. Of the larger pollsters, only TNS and Opinium correctly called the outcome, although still underestimating the Leave vote. This general failure, moreover, follows hard on the heels of similar failures in both the 2010 and 2015 General Elections, and public faith in commercial polling has taken another serious blow” (Celli et al. 2016: 110).

„YouGov, Populus, ComRes, ORB, Ipsos-Mori and Survation, sie alle haben es nicht geschafft, das Ergebnis richtig vorherzusagen. Von den größeren Meinungsforschungsinstituten haben nur TNS und Opinium das Ergebnis richtig vorhergesagt, obwohl sie die Anzahl der Leave-Stimmen [Stimmen, die für den Austritt des Vereinigsten Königreiches aus der EU abgegeben wurden] unterschätzt haben. Dieses allgemeine Versagen folgt auf ähnliche Misserfolge bei den Parlamentswahlen 2010 und 2015, und das Vertrauen der Öffentlichkeit in die kommerzielle Meinungsforschung hat einen weiteren schweren Schlag erlitten“ (Celli et al. 2016: 110).

Dass Vorhersagen, die auf Bevölkerungsbefragungen basieren, in der Regel falsch sind, hat viele verschiedene Gründe, aber welche genau das sind bzw. wie genau sich bestimmte Faktoren auf die Qualität der Vorhersage auswirken, ist unklar. So berichten Celli et al. (2016: 112) mit Bezug auf die Vorhersagen des Ausgangs des Brexit-Referendums durch die Meinungsforschungsinstitute:

“In the days before the referendum, only TNS and Opinium predicted the outcome correctly, both using online polling and a three day time window, or larger. But results are contradictory: Populus used online polling, and with a larger sample, but they focused on a one-day time window and their prediction failed. Moreover, YouGov gave a first correct prediction with online polls from June 18 to 19, and then failed using the same method with a larger sample collected between June 20 to 22.”

Vor dem Referendum haben nur TNS und Opinium das Ergebnis richtig vorhergesagt. Beide haben Online-Umfragen, die über drei oder mehrere Tage durchgeführt wurden, genutzt. Aber die Ergebnisse sind widersprüchlich: Populus hat Online-Umfragen mit mehr Befragten durchgeführt, aber nur einen Tag lang Daten gesammelt, und ihr Vorhersage war falsch. Schließlich hat YouGov als ersten Umfrageinstitut den Ausgang richtig vorhergesagt, basierend auf einer Befragung vom 18 und 19 Juni [2016]. Und dennoch haben sie mit derselben Methode und einem größeren Sample, mit Daten, die sie vom 20. bis zum 22. Juni gesammelt haben, das falsche Ergebnis prognostiziert.

Man kann also nicht einfach davon ausgehen, dass Vorhersagen, die auf einer höheren Zahl von Befragten basieren, immer bessere Vorhersagen erbringen als Vorhersagen, die auf einer niedrigeren Zahl von Befragten basieren, oder dass Online-Befragungen immer zuverlässige und auch nicht immer bessere Ergebnisse als telefonische Befragungen erbringen. Allenfalls kann man auf der Basis der Befunde zu den Vorhersagen des Ausgangs des Brexit-Referendums festhalten, dass Befragungen, die innerhalb eines mehrtägigen Zeitfensters stattfinden, bessere Ergebnisse erbringen als Befragungen, die an nur einem Tag durchgeführt werden. Aber inwieweit sind diese Befunde verallgemeinerbar auf Bevölkerungsbefragungen zu anderen Themen?

Niemand weiß es.

Alternativen zur Vorhersage mit Hilfe von teuren und mit Bezug auf die Vorhersage wenig erfolgreichen Bevölkerungsbefragungen sind vor allem solche, die auf dem sogenannten „data mining“ basieren, d.h. der Sammlung von großen Datenmengen, um aus ihnen Muster und Trends herauszufiltern. Beim sogenannten „Social Opinion Mining“ (SOM) (s. hierzu Cortis & Davis 2021), handelt es sich um

‘‘… the study of user-generated content by a selective portion of society be it an individual or group, specifically those who express their opinion about a particular entity, individual, issue, event and/or topic via social media interaction’’ (Cortis & Davis 2021: o.S.),

d.h.

„… die Untersuchung von durch einen ausgewählten Teil der Gesellschaft, sei es eine Einzelperson oder eine Gruppe, generierten Inhalten, insbesondere diejenigen, die ihre Meinung über eine bestimmte Einrichtung, eine Einzelperson, ein Problem, ein Ereignis und/oder ein Thema in den sozialen Medien zum Ausdruck bringen“ (Cortis & Davis 2021: o.S.).

Wie effizient das SOM bzw. computergestützte NLP-Techniken, d.h. „Natural Language Processing“-Techniken bzw. Techniken zur Verarbeitung natürlicher Sprache, mit Bezug auf Vorhersagekraft sind, ist allerdings unklar. Es gibt sehr viele Veröffentlichungen, in denen das Potenzial des SOM betont wird und berichtet wird, wie die KI, die im Rahmen von SOM zum Einsatz kommt, optimiert werden kann, aber vergleichsweise wenige Studien dazu, inwieweit man aufgrund des SOM zu korrekten Vorhersagen kommt oder zu besseren als unter Verwendung anderer Verfahren, und die diesbezüglichen Studien kommen zu überwiegend positiven, aber teilweise widersprüchlichen Ergebnissen (s. hierzu Celli et al. 2016; Hou et al. 2022; Jaidka et al. 2018; Skoric et al. 2020). Bislang fragen Medien, politische Parteien und andere entsprechend interessierte Parteien jedenfalls nach wie vor die auf Bevölkerungsbefragungen basierenen Daten der Meinungsforschungsinstitute nach oder lassen „Experten“ unbekannter Qualifikation zu Wort kommen, so dass auch heute noch gilt, was Celli et al. im Jahr 2016 festgehalten haben:

“[t]o date, however, neither polling organizations nor the media have paid much attention to NLP methods for election and referendum forecasting, …” (Celli et al. 2016: 117),

d.h.

„[b]islang haben jedoch weder Meinungsforschungsinstitute noch die Medien NLP-Methoden für die Vorhersage von Wahlen und Volksabstimmungen viel Aufmerksamkeit geschenkt, …“ (Celli et al. 2016: 117).

Ein grundsätzliches Problem, vor dem alle „data mining“-Strategien stehen, ist, dass sie zwar Muster oder Beziehungen aus Daten herausfiltern können, aber keine Aussage darüber erlauben, ob diese Muster in der realen Welt und nicht bloß statistisch als methodisches Artefakt bestehen, welcher Art gefundene Zusammenhänge sind – sind sie z.B. als Kausalzusammenhänge zu werten? – und welche lebenspraktische Bedeutung sie haben, falls sie eine haben. Es ist also immer eine Interpretationsleistung notwendig (Seifert 2006: 201), und für diese gibt es so gut wie keine verbindlichen Standards.

Die Frage danach, warum Vorhersagen durch Experten und Meinungsforschungsinstitute so oft danebenliegen und Algorithmen, die riesige Datenmengen auf Muster hin durchsuchen, bislang auch keinen Königsweg des Orakelns bieten, beschäftigt viele Forscher und viele von ihnen dauerhaft.

Gibt man z.B. heute die Suchbegriffe „Brexit referendum forecasting“ in die Suchmaschine von Google Scholar ein, dann erhält man 10.900 Einträge, wobei unter meinen Favoriten (allein aufgrund ihres Unterhaltungswertes) diejenigen Texte sind, in denen die Autoren noch Jahre nach dem Referendum die Frage beantworten wollen, wie sich die heftigen Regenfälle am Tag des Referendums auf die Wahlbeteiligung ausgewirkt haben und insbesondere, ob sie die Wahlbeteiligung derer, die für einen Verbleib in der EU waren, und derer, die für einen Austritt aus der EU waren, unterschiedlich beeinflusst haben, bzw. ob das Vereinigte Königreich noch in der EU wäre, wenn der Tag des Referendums ein sonniger Tag gewesen wäre (s. z.B. den Text von Patrick A. Leslie und Arı Barış (2018). Immerhin wirft das Interesse hieran ein ganz neues Licht auf das Gerücht, dass es erhebliche Versuche diverserer Regierungen gibt, das Wetter zu beeinflussen ….)

Wenn schon Experten, „Mustererkenner“ und professionelle Prognostiker aller Art mit ihren Vorhersagen häufig danebenliegen, gilt dies dann nicht um so mehr für Nicht-Experten bzw. „normale“ Bürger, denn haben Letzere nicht eine größere Wahrscheinlichkeit, kognitiven Verzerrungen zum Opfer zu fallen oder die Bedeutung von Zusammenhängen nicht zu erkennen oder falsch zu interpretieren?!

Nein:

“The emergent literature on citizen forecasting suggests that the public, in the aggregate, can often accurately predict the outcomes of elections” (Morisi & Leeper 2022: o.S.),

d.h.

„Die bislang vorliegende Literatur über Bürgerprognosen deutet darauf hin, dass die Öffentlichkeit in ihrer Gesamtheit die Ergebnisse von Wahlen oft genau vorhersagen kann“ (Morisi & Leeper 2022: o.S.).

(Diese Literatur umfasst u.a. Dufresne et al. 2022; Lewis-Beck & Stegmaier 2011; Miller et al. 2012; Murr 2016; Murr & Lewis-Beck 2021; Murr & Lewis-Beck 2022; Temporão et al. 2019; eine Ausnahme unter den nahezu durchweg positiven Befunden stellt die Studie von Ganser & Riordan 2015 dar, in der die in der Politikwissenschaft traditionelle Frage nach der Wahlabsicht das Wahlergebnis besser vorhersagte als die Frage nach dem erwarteten Wahlausgang, während Murr, Stegmaier und Lewis-Beck 2021 – auf der Basis anderer Daten – ihrerseits das Gegenteil feststellten.)

Wohlgemerkt: es ist die Gesamtheit der Befragten, die Wahlergebnisse oft genau vorhersagen kann; was das bedeutet, beschreibt Sjöberg (2008) in der Zusammenfassung seiner Studie:

“Four groups made forecasts of the outcome of the Swedish Parliamentary election in the fall of 2006. They consisted of members of the public, political scientists, journalists writing about domestic politics in Swedish daily newspapers, and journalists who were editing sections of readers’ letters in daily newspapers. They estimated, using a 12-step category scale, which percentage of the votes that they believed 7 parties would get in the election. Data were then obtained on the outcome of the election, and on the two opinions polls closest in time to it. When median forecast were compared across groups, it was found that the group from the public was most successful in forecasting the outcome of the election. This was in spite of the fact that the median error made by individual members of that group was about 50 percent larger than the median error made by members of other groups. The two polls were less efficient than the group from the public and overestimated the span between the incumbent government and the opposition by a factor of 2. The members of the public and journalists showed some wishful thinking in their forecasts. There were large and consistent individual differences in forecasting ability. Men performed better than women, as did those who expressed more interest and knowledge in politics” (Kursivsetzungen d.d.A.).

„Vier Gruppen gaben Prognosen zum Ausgang der schwedischen Parlamentswahlen im Herbst 2006 ab. Sie bestanden aus Bürgern, Politikwissenschaftlern, Journalisten, die in schwedischen Tageszeitungen über Innenpolitik schreiben, und Journalisten, die in Tageszeitungen Leserbriefspalten redigieren. Sie schätzten anhand einer 12-stufigen Kategorienskala, wie viel Prozent der Stimmen ihrer Meinung nach 7 verschiedene Parteien bei der Wahl erhalten würden. Anschließend wurden Daten zum Wahlergebnis und zu den beiden zeitlich am nächsten liegenden Meinungsumfragen erhoben. Beim Vergleich der Zentralwerte [oder Median: der Wert, der in einer statistischen Verteilung, in der alle gemessenen Werte in eine (normalerweise) aufsteigende Rangfolge gebracht worden sind, in der Mitte der Verteilung liegt] für die Vorhersagen der verschiedenen Gruppen wurde festgestellt, dass die Gruppe der Bürgerinnen und Bürger den Wahlausgang am besten vorhersagen konnte. Und das, obwohl der Medianfehler der einzelnen Mitglieder dieser Gruppe etwa 50 % größer war als der Medianfehler der Mitglieder der anderen Gruppen. Die beiden Meinungsforschungsinstitute waren weniger effizient als die Gruppe der Bürger/Mitglieder der Öffentlichkeit und überschätzten den Abstand zwischen der amtierenden Regierung und der Opposition um den Faktor 2. Die Mitglieder der Öffentlichkeit und die Journalisten zeigten in ihren Prognosen ein gewisses Wunschdenken. Es gab große und beständige individuelle Unterschiede in der Prognosefähigkeit. Männer schnitten besser ab als Frauen, ebenso wie diejenigen, die mehr Interesse und Wissen über Politik zeigten“

Wie aus dieser Zusammenfassung der Studie von Sjöberg erkennbar ist, können „normale“ Bürger nicht nur Wahlergebnisse ziemlich genau vorhersagen, sondern sie schneiden in ihren Vorhersagen auch besser ab als verschiedene Arten von Experten wie z.B. Politikwissenschaftler oder Journalisten besser als Prognostiker, die sich auf Vorhersagemodelle oder Meinungsumfragen stützen, und zu diesem Ergebnis ist nicht nur Sjöberg (2008) gekommen, sondern u.a. auch Fisher und Shorrocks (2017) und Graefe (2014; 2016).

Es verdient festgehalten zu werden, dass die Qualität von Vorhersagen durch Gruppen von Bürgern auch – oder vielleicht gerade – dann hoch ist/bleibt, wenn diese Gruppen explizit ohne Anspruch auf „Repräsentativität“ ausgewählt wurden wie das z.B. in der Studie von Graefe (2016) der Fall war. In einer anderen Studie haben die Autoren gezeigt, dass

“… even samples with a strong partisan bias can be used to generate useful forecasts” (Rothschild und Wolfers 2012: 41),

d.h.

„… sogar stark parteiische Stichproben können zur Gewinnung brauchbarer Prognosen verwendet werden“ (Rothschild und Wolfers 2012: 41),

wobei die „stark parteiischen Stichproben“ in dieser Studie zwei Stichproben waren, von denen die eine nur Wähler der Republikaner enthielt, die anderen nur Wähler der Demokraten.

Dies alles bedeutet nicht, dass die Vorhersagen von Gruppen „normaler“ Bürger in jedem Fall verlässlich sind , aber es bedeuet, dass sie, die „normalen“ Bürger, es sind, die – nach dem derzeitigen Stand der Erkenntnis – Wahlergebnisse häufig richtig vorhersagen können und häufiger als Meinungsforschungsinstitute, Experten/-Panels, Journalisten oder Politikwissenschaftler.

Aber warum können Gruppen von Bürgern Wahlergebnisse besser vorhersagen als individuelle Bürger?

Folgen Sie uns auf TELEGRAM

Murr (2011) erklärt sich dies auf der Basis des sogenannten Geschworenentheorems des französischen Philosophen und Mathematikers Marquis de Condorcet (1785). Condorcet hat untersucht, unter welchen Bedingungen Gruppenentscheidungen, besser, gleich oder schlechter sind als Einzelentscheidungen, und er zeigt, dass sich dann, wenn jedes Mitglied die richtige Alternative mit einer Wahrscheinlichkeit von mehr als 50 Prozent wählt, die Wahrscheinlichkeit einer korrekten Gruppenentscheidung mit zunehmender Gruppengröße der Unendlichkeit nähert, während dann, wenn jedes Mitglied die richtige Alternative mit weniger als 50 Prozent Wahrscheinlichkeit wählt, die Wahrscheinlichkeit einer korrekten Gruppenentscheidung gegen Null geht. Leiter et al. weisen darauf hin, dass dieser Aggregations-Effekt auch bei kleinen Gruppen besteht:

“Consider a group of three independent members each with a probability of choosing the correct alternative of 0.6. This group chooses the correct alternative using majority vote if at least two out of three members vote correctly. Using the above formula, the probability of a correct group decision is 𝑃 = 3 × 0.6 2 × 0.4 + 0.6 3 = 0.648, an increase in accuracy of about 5 6 percentage points. This probability increases as the group size increases: with five independent members this probability is 0.6824, with seven it is 0.7102, with nine it is 0.7334, and so on. In other words, even though individually members may only be slightly better than chance in getting it right, collectively they may choose the correct alternative with almost certainty, if the group has enough members” (Leiter et al. 2018: 5-6).

„Betrachten wir eine Gruppe von drei unabhängigen Mitgliedern, von denen jedes eine Wahrscheinlichkeit von 0,6 hat, die richtige Alternative zu wählen. Diese Gruppe wählt die richtige Alternative per Mehrheitsbeschluss, wenn mindestens zwei von drei Mitgliedern richtig abstimmen. Nach der obigen Formel [von Concordet, hier nicht wiedergegeben; sie steht bei Leiter et al. 2018 auf Seite 5] beträgt die Wahrscheinlichkeit einer korrekten Gruppenentscheidung 𝑃 = 3 × 0,62 × 0,4 + 0,63 = 0,648, was einer Erhöhung der Genauigkeit um etwa 5 Prozentpunkte entspricht. Diese Wahrscheinlichkeit steigt mit zunehmender Gruppengröße: bei fünf unabhängigen Mitgliedern beträgt diese Wahrscheinlichkeit 0,6824, bei sieben 0,7102, bei neun 0,7334 usw. Mit anderen Worten: Auch wenn die einzelnen Mitglieder nur geringfügig besser als der Zufall liegen, können sie gemeinsam mit ziemlicher Sicherheit die richtige Alternative wählen, wenn die Gruppe genügend Mitglieder hat“ (Leiter et al. 2018: 5-6).

Man spricht in diesem Zusammenhang häufig von der „Weisheit der Menge“ bzw. „wisdom of the crowd“.

Zusätzlich zu dieser rein mathematischen Begründung haben Leiter et al. (2018) festgestellt, dass bestimmte Eigenschaften der sozialen Netzwerke der Befragten Einfluss auf die Akkuratheit von Vorhersagen haben:

“We use a unique German survey and consider direct measures of social networks in order to explore their role in election forecasting. We find that three network characteristics – size, political composition, and frequency of political discussion – are among the most important variables when predicting the accuracy of citizens’ election forecasts” (Leiter et al. 2018: 1).

„Wir verwenden eine einzigartige deutsche Bevölkerungsbefragung und berücksichtigen direkte Maße sozialer Netzwerke, um ihre Rolle bei der Wahlprognose zu untersuchen. Wir stellen fest, dass drei Netzwerkmerkmale – Größe, politische Zusammensetzung und Häufigkeit politischer Diskussionen  – zu den wichtigsten Variablen bei der Vorhersage der Genauigkeit der Wahlprognosen der Bürger gehören“ (Leiter et al. 2018: 1).

Dagegen haben weder das Ausmaß der Expertise im Netzwerk noch seine Heterogenität Erklärungskraft mit Bezug auf die Qualität der Vorhersage des Wahlergebnisses durch einzelne Bürger. (Man beachte, dass das zuletzt genannte Ergebnis mit dem oben berichteten aus der Studie von Rothschild und Wolfers (2012) mit bezug auf stark parteiische Stichproben übereinstimmt, also Stichproben, die mit Bezug auf die Präferenz für eine politische Partei vollständig homogen sind.)

Die Qualität der Vorhersage von Wahlergebnissen durch „normale“ Bürger ist also sowohl eine rein mathematische Funktion als auch eine Funktion der Qualität der Vorhersagefähigkeit individueller Bürger, die ihrerseits – sicherlich: u.a. – von einigen Eigenschaften ihrer Netzwerke abhängt. Während die Vorhersagekraft von Wahlergebnissen durch (viele) „normale“ Bürger also aus mathematischen Gründen hoch ist, ist sie nicht bei allen Gruppen „normaler“ Bürger gleichermaßen hoch (und – wie wir schon anhand anderer oben berichteter Befunde gesehen haben – nicht bei allen Gruppen von Personen gleichermaßen hoch (wie z.B. Journalisten, die als Gruppe weniger gute Prognosen abgeben als „normale“ Bürger als Gruppe).

Im Bereich der Bürgerprognosen ist noch sehr, sehr viel Forschungsarbeit zu leisten. Aber natürlich könnte man die Frage stellen, wozu man überhaupt darüber forschen sollte, wer warum wie gut Prognosen erstellen kann. Eine Antwort wäre gegeben, wenn Personen in politischer Verantwortung und Verwaltungen in Übereinstimmung mit demokratischen Grundsätzen an möglichst zuverlässigen Prognosen dahingehend interessiert wären, ob ihre Beschlüsse oder Maßnahmen geeignet sind, den Willen der Mehrheit der Bürger, die sie repräsentieren bzw. verwalten sollen, umzusetzen. Bedauerlicherweise scheinen wir derzeit in den westlichen Staaten von solchen Verhältnissen sehr weit entfernt zu sein:

“There is a long tradition of research on electoral forecasting … and considerable interest in the topic persists to this day … Accurate nowcasts, or long-term forecasts, of these results are desired by a large set of stakeholders, such as politicians, practitioners and policy makers. Such an achievement would drive strategic choices and influence political strategies, as well as the financing of political parties” (Colladon 2020: 3).

Und:

“The author’s findings are important not only in terms of forecasting, they also give evidence to the influence that online news can have on voting intentions … Indeed, the question whether the online news are better for revealing or influencing electoral results remains open” (Colladon 2020: 37).

„Es gibt eine lange Forschungstradition im Bereich der Wahlprognosen … und das Interesse an diesem Thema ist bis heute ungebrochen … Genaue Nowcasts oder langfristige Vorhersagen dieser Ergebnisse werden von einer Vielzahl von Interessengruppen wie Politikern, Praktikern und Entscheidungsträgern gewünscht. Eine solche Leistung würde strategische Entscheidungen vorantreiben und politische Strategien sowie die Finanzierung von politischen Parteien beeinflussen“ (Colladon 2020: 3).

Und:

„Die Ergebnisse des Autors sind nicht nur im Hinblick auf die Vorhersage wichtig, sondern sie belegen auch den Einfluss, den Online-Nachrichten auf die Wahlabsichten haben können … In der Tat bleibt die Frage offen, ob die Online-Nachrichten besser geeignet sind, Wahlergebnisse aufzudecken oder zu beeinflussen“ (Colladon 2020: 5; Hervorhebung d.d.A.).

Hinter dem Interesse von “stakeholdern” bzw. Interessengruppen, möglichst genau zu wissen, was Bürger von bestimmten Zielen, Politiken oder Personen wie z.B. Politikern, die bei einer Wahl antreten, halten, dient also nicht dem Ziel, den Willen der Bürger möglichst gut umsetzen zu können, wie das in einer Demokratie notwendig ist, sondern dazu, „stategische Entscheigungen“ zu treffen, „politische Strategien“ zu entwerfen und den Willen der Bürger zu beeinflussen – statt ihn mit eigenen Politiken und Maßnahmen möglichst in die Praxis umzusetzen.

Und vielleicht ist dies der oder zumindest ein Grund daür, warum „normale“ Bürger bessere Prognosen abgeben können als z.B. Journalisten oder vermeintliche oder tatsächliche Experten: Letztere sind als solche „stakeholder“ insofern als sie in einer Vielzahl von hierarchischen Abhängigkeitsbeziehungen stehen, die es ihnen entweder direkt zur Aufgabe machen, statt im eigentlichen Sinn zu prognostizieren vermeintliche „Prognosen“ als Mittel zur Beeinflussung des Bürgerwillens zu verbreiten, oder sie an der Aufstellung und Verbreitung echter Prognosen durch sozialen Druck innerhalb einer Echokammer, hindern, während „normale“ Bürger mit ihren Prognosen nicht beeinflussen wollen, sondern tatsächlich vorhersagen möchten, und dabei auch nicht von einem „stark parteiischen“ Netzwerk behindert werden (oder sich von ihm nicht behindern lassen).

Wenn das zutrifft, dann bedeutet das, dass nicht alle Echokammern gleich beschaffen sind; dann ist nicht das Vorhandensein von Echokammern für die Akkuratheit von Prognosen relevant, sondern die Frage, ob eine Echokammer eine mehr oder weniger private ist oder eine, die in hierarchische Abhängigkeitsstrukturen eingelassen ist, womit die „Prognose“ zur verpflichtenden Solidaritätsbekundung wird (sofern sie nicht direkt zum Beeinflussungsinstrument mutiert).

Der „Weisheit der Menge“ stehen dann die Interessen der Stakeholder und der Gehorsam der Abhängigkeitsstrukturen Befangenen gegenüber.


Literatur

Celli, Fabio, Stepanov, Evgeny A., Poesio, Massimo, & Riccardi, Giuseppe, 2016: Predicting Brexit: Classifying Agreement is Better than Sentiment and Pollsters, S. 110-118 in: Proceedings of the Workshop on Computational Modeling of People’s Opinions, Personality, and Emotions in Social Media (PEOPLES). Osaka/Japan, December 12, 2006. The COLING 2016 Organizing Committee.https://aclanthology.org/W16-4312.pdf

Colladon, Fronzetti, 2020: Forecasting Election Results by Studying Brand Importance in Online News. Manuscript accepted for publication in the International Journal of Forecasting 36(2): 414-427. https://arxiv.org/ftp/arxiv/papers/2105/2105.05762.pdf

Condorcet, Marie-Jean-Antoine-Nicolas de Caritat, Marquis de, 1785: Essai Sur L’application de L’analyse a La Probabilité Des Descisions Redues a La Pluralité de Voix. Paris: De l’Imprimerie Royale.

Cortis, Keith, & Davis, Brian, 2021: Over a Decade of Social Opinion Mining: a Systematic Review. Artificial Intelligence Review 54: 4873-4965. https://doi.org/10.1007/s10462-021-10030-2

Dufresne, Yannick, Jérôme, Bruno, Lewis-Beck, Michael S., et al., 2022: Citizen Forecasting: The 2022 French Presidential Election. PS: Political Science & Politics 55(4): 730-734

Fisher, Stephen D., & Shorrocks, Rosaling, 2018: Collective Failure? Lessons from Combining Forecasts for the UK’s Referendum on EU Membership. Journal of Elections, Public Opinion and Parties 28 (1): 59-77

Ganser, Christian, & Riordan, Patrick, 2015: Vote Expectations at the Next Level: Trying to Predict Vote Shares in the 2013 German Federal Election by Polling Expectations. Electoral Studies 40: 115-126

Graefe, Andreas, 2016: Forecasting Proportional Representation Elections from Non-representative Expectation Surveys. Electoral Studies 42: 222-228.

Graefe, Andreas, 2014: Accuracy of Vote Expectation Surveys in Forecasting Elections. Public Opinion Quarterly 78(S1): 204-232

Hou, Wenju, Li, Ying, Liu, Yijun, & Li, Qianqian, 2022: Leveraging Multidimensional Features for Policy Opinion Sentiment Prediction. Information Science 610: 215-234.

Jaidka, Kokil, Ahmed, Saifuddin, Skoric, Marko, & Hilbert, Martin, 2018: Predicting Elections from Social Media: A Three-country, Three-method Comparative Study. Asian Journal of Communication 29(5): 1-21

Leiter, Debra, Murr, Andreas, Rascón Ramírez, Ericka, & Stegmaier, Mary, 2018: Social Networks and Citizen Election Forecasting: the More Friends the Better. International Journal of Forecasting 34(2): 235-248. Lliegt mir vor in der von der University of Warwick bereitgestellten Version: http://wrap.warwick.ac.uk/95184/7/WRAP-social-networks-citizen-election-forecasting-Murr-2017.pdf

Leslie, Patrick A., & Barış, Arı, 2018: Could Rainfall Have Swung the Result of the Brexit Referendum? Political Geography 65: 134-142

Lewis-Beck, Michael S., & Stegmaier, Mary, 2011: Citizen Forecasting: Can UK Voters See the Future? Electoral Studies 30(2): 264-268

Miller, Michael K., Wang, Guanchun, Kulkarni, Sanjeev R., et al., 2012: Citizen Forecasts of the 2008 U.S. Presidential Election. P&P (Politics and Policy) 40(6): 1019-1052

Morisi, Davide, & Leeper, Thomas, 2022: What Influences Citizen Forecasts? The Effects of Information, Elite Cues, and Social Cues. Political Behavior. https://doi.org/10.1007/s11109-022-09811-4

Murr, Andreas E., 2016: The Wisdom of Crowds: What Do Citizens Forecast for the 2015 British General Election? Electoral Studies 41: 283-288

Murr, Andreas E., 2011: ‘Wisdom of Crowds’? A Decentralized Election Forecasting Model That Uses Citizens’ Local Expectations.” Electoral Studies 30(4): 771-83

Murr, Andreas E., & Lewis-Beck, Michael S., 2022: Citizen Forecasts of the 2021 German Election. PS: Political Science & Politics 55(1): 97-101

Murr, Andreas E., & Lewis-Beck, Michael S., 2021: Citizen Forecasting 2020: A State-by-State Experiment. PS: Political Science & Politics 54(1): 91-95.

Murr, Andreas E., Stegmaier, Mary, & Lewis-Beck, Michael S., 2021: Vote Expectations Versus Vote Intentions: Rival Forecasting Strategies. British Journal of Political Science 51(1): 60-67

Rothschild, David, & Wolfers, Justin, 2012: Forecasting Elections: Voter Intentions versus Expectations. https://www.brookings.edu/wp-content/uploads/2016/06/01-voter-expectations-wolfers.pdf

Seifert, Jeffrey W., 2006: Data Mining: An Overview, S. 201-217 in: Pegarkov, Daniel D., (Hrsg.): National Security Issues. Haupauge (NY): Nova Science Publishers.

Sjöberg,Lennart, 2008: Are All Crowds Equally Wise? A Comparison of Political Election Forecasts by Experts and the Public. Journal of Forecasting 28(1): 1-18.

Skoric, Marko M., Liu, Jing, & Jaidka, Kokil, 2020: Electoral and Public Opinion Forecasts with Social Media Data: A Meta-Analysis. Information 11(4): 187. doi: 10.3390/info11040187

Temporão, Mickael, Dufresne, Yannick, Savoie, Justin, & van der Linden, Clifton, 2019: Crowdsourcing the Vote: New Horizons in Citizen Forecasting. International Journal of Forecasting 35(1): 1-10


Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org


Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen.
ScienceFiles lebt weitgehend von Spenden.
Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.


Wir haben drei sichere Spendenmöglichkeiten:

Donorbox

Unterstützen Sie ScienceFiles


Unsere eigene ScienceFiles-Spendenfunktion

Zum Spenden einfach klicken

Unser Spendenkonto bei Halifax:


ScienceFiles Spendenkonto:
HALIFAX (Konto-Inhaber: Michael Klein):

  • IBAN: GB15 HLFX 1100 3311 0902 67
  • BIC: HLFXGB21B24

Print Friendly, PDF & Email






Quelle Link

Von Veritatis

Schreibe einen Kommentar