Vorgestern hat die Julius-Maximilians-Universität Würzburg eine Pressemitteilung veröffentlicht, in der sie auf einen Artikel “in press” in der Zeitschrift Trends in Cognitive Science von Kristina Suchotzki vom Fachbereich Psychologie der Philipps-Universität Marburg und Matthias Gamer vom Institut für Psychologie an der Julius-Maximilians-Universität Würzburg hinweisen. In diesem Artikel formulieren die Autoren ihre Bedenken gegen den Einsatz von künstlicher Intelligenz (KI) als Lügendetektor. Sie beziehen sich dabei beispielhaft auf das “Intelligent Portable Border Control System” oder kurz “iBorderCtrl”, das von 2016 bis 2019 in einem Projekt von der Europäischen Kommission bezahlt und in Ungarn, Griechenland und Litauen im Jahr 2018 getestet wurde. Ziel dabei war, es
“… to automate the security process at the EU’s external borders by replacing border guards with artificial intelligence. In order to achieve this, the AI system asks the traveller a number of questions (name, country of origin, length of stay, reason for travel, luggage contents, etc.) whilst they are positioned in front of a camera and determines the veracity of the information based on the traveller’s facial expressions. The system then delivers a score that determines whether or not the person is potentially dangerous. If they are, a more in-depth check is carried out by a real person”,
d.h.
“… den Sicherheitsprozess an den EU-Außengrenzen zu automatisieren, indem Grenzschutzbeamte durch künstliche Intelligenz ersetzt werden. Um dies zu erreichen, stellt das KI-System dem Reisenden eine Reihe von Fragen (Name, Herkunftsland, Aufenthaltsdauer, Grund der Reise, Inhalt des Gepäcks usw.), während er sich vor einer Kamera befindet, und ermittelt die Richtigkeit der Informationen anhand der Mimik des Reisenden. Anhand dieser Mimik des Reisenden ermittelt das System den Wahrheitsgehalt der Angaben und gibt eine Bewertung ab, ob die Person potenziell gefährlich ist oder nicht. Ist dies der Fall, wird eine eingehendere Überprüfung durch eine reale Person durchgeführt”.
iBorderCtrl basiert auf dem Systm mit dem sympathischen Namen “Silent Talker”,
“… an artificial neural network that uses a number of nonverbal behaviors to distinguish between truthful travelers and those who are lying about their identity, plans, or possessions” (Suchotzki & Gamer 2024: 2; Box 1),
d.h.
“… ein[em] künstliche[n] neuronale[n] Netzwerk, das eine Reihe von nonverbalen Verhaltensweisen nutzt, um zwischen Reisenden, die die Wahrheit sagen, und solchen zu unterscheiden, die über ihre Identität, ihre Pläne oder ihren Besitz lügen” (Suchotzki & Gamer 2024: 2; Box 1).
Suchotzki und Gamer wenden gegen die Verwendung von “iBorderCtrl” bzw. speziell “Silent Talker” ein, dass sie ohne theoretische Fundierung sei, das System intransparent sei, weil der Algorithmus patentiert ist und damit weder der Allgemeinheit interessierter Wissenschaftler noch der Öffentlichkeit zur Inspektion und Überprüfung zur Verfügung steht, und die bisherige Prüfung von “Silent Talker” ungenügend sei:
“The few scientific publications on Silent Talker so far have described the development and test of the system in very small, nondiverse samples with fewer than 40 participants, of whom the majority were white European men and women … Here, the authors reported high correct classification rates. However, no further testing and cross-validation seems to have taken place in independent, larger samples before the project was funded by the European Union with 4.5 million Euros to be further tested and implemented in real life at European borders. This reflects the high hopes that are put into AI-based security applications yet unfortunately also demonstrates that this often comes at the cost of basic scientific standards” (Suchotzki & Gamer 2024: 2; Box 1).
D.h.
“Die wenigen wissenschaftlichen Veröffentlichungen zu Silent Talker beschreiben die Entwicklung und Erprobung des Systems in sehr kleinen kleinen, nicht diversifizierten Stichproben mit weniger als vierzig Teilnehmern, von denen die Mehrheit weiße europäische Männer und Frauen waren … Diesbezüglich berichteten die Autoren über hohe korrekte Klassifikationsraten. Allerdings scheinen keine weiteren Tests und keine Kreuzvalidierung in unabhängigen, größeren Stichproben stattgefunden zu haben, bevor das Projekt von der Europäischen Union mit 4,5 Millionen Euro gefördert wurde, um es weiter zu testen und in der Praxis an den europäischen Grenzen einzusetzen. Dies spiegelt die großen Hoffnungen wider, die in KI-basierte Sicherheitsanwendungen gesetzt werden, zeigt aber leider auch, dass dies oft auf Kosten grundlegender wissenschaftlicher Standards geht” (Suchotzki & Gamer 2024: 2; Box 1).
Die Autoren lehnen den Einsatz von KI als Lügendetektor nicht grundsätzlich ab, sondern verstehen ihre Kritik als Basis für Empfehlungen zur (Weiter-/)Entwicklung und Regulation von Erkennungssystemen, die auf KI basieren (Suchotzki & Gamer 2024: 1).
Die Schwierigkeiten, auf die Suchotzki und Gamer mit Bezug auf den Einsatz von KI zur Identifizierung von Lügnern anhand ihrer Körpersprache hinweisen, sind keineswegs beschränkt auf KI, die Körpersprache analysieren soll. Vielmehr sind diese und weitere Schwierigkeiten solche grundsätzlicher Art, und sie bestehen daher auch, wenn KI z.B. dazu eingesetzt werden sollte, falsche Informationen in Texterzeugnissen zu identifizieren. Und vielleicht bestehen die größten Gefahren des Einsatzes von KI tatsächlich in diesem Bereich, dem Bereich der Texterzeugnisse.
Mit Bezug auf Texterzeugnisse arbeitet KI auf der Basis sogenannter Large Language Models (LLMs). Es handelt sich dabei um KI-Systeme, denen unter Verwendung riesiger Text- bzw. Sprach-Datenmengen “beigebracht” wurde, menschliche Sprache zu verstehen und zu produzieren. Sprachmodelle werden anhand riesiger Mengen von sprachlichen Daten weitertrainiert, inklusive auf die Erkennung von Beziehungen zwischen Sprach- oder Textelementen hin, was es schließlich möglich macht, neue Inhalte auf der Basis der trainierten Daten zu erstellen. Heute können Sprachmodelle sprachliche Inhalte auswerten, zusammenfassen und selbst neue Inhalte erstellen wie in dem Fall von NLP (Natural Language Processing)-Anwendungen, bei denen ein Benutzer eine Abfrage in natürlicher Sprache eingibt, um ein Ergebnis zu generieren, das einen sprachlichen Austausch mit einem menschlichen Gegenüber simulieren soll, z.B. in Form eines “chatbot”.
Wir alle dürften schon einmal mit chatbots wie z.B. Amazon’s Q oder dem WhatsApp chatbot – konfrontiert und mehr oder weniger zufrieden mit ihren Leistungen gewesen sein. Viele von uns benutzen auf KI basierende Übersetzungsprogramme wie DeepL und sind je nachdem, aus welchem Textgenre das zu Übersetzende stammt, mehr oder weniger zufrieden mit dem Ergebnis. Obwohl sie zweifellos Bemerkenswertes leisten und nützlich sind, wenn man den Kerninhalt eines Textes, der in einer anderen Sprache verfasst wurde, verstehen möchte, stößt man bei ihrer Benutzung oft schnell an ihre Grenzen. Übersetzungsprogramme (wie alle auf LLMs basierende Software) können nur so gut sein wie ihr Training.
Und schwierig zu trainieren sind nicht nur Redewendungen und Worte, die im Alltag anders gebraucht werden als in ihrer standardsprachlichen Version oder mehrdeutig gebraucht werden wie z.B. im Italienischen, in dem man sagen kann: “Ordiniamo due timballi”, aber dennoch nicht dafür votiert, “zwei Paukenschläge” zu bestellen, wie z.B. DeepL vermutet, oder “zwei Trommeln” zu bestellen, wie Reverso meint (sondern zwei Portionen von Timballo, einem gebackenen Gericht). Schwierig zu trainieren ist vor allem die hinter gewählten Worten liegende Absicht, wie z.B. eine ironische Absicht, besonders dann, wenn sie sich nicht in einem einzigen Satz erschließt, sondern in einem Zusammenhang mehrerer Sätze, wie überhaupt die Erkennung von rhetorischen Mitteln in Sprache oder Text.
Derzeit werden sogenannte MAPS (Multi-Aspect Prompting and Selection)-Modell erprobt, die am menschlichen Übersetzungsmechanismus orientiert sein sollen und von denen man sich (deshalb) die Reduktion von Übersetzungsfehlern erhofft, die durch Mehrdeutigkeit, Auslassungen u.a.m. entstehen (He et al. 2024). Dies wird wahrscheinlich dazu beitragen, maschinelle Übersetzungsleistungen weiter zu verbessern, aber angesichts der Tatsache, dass es selbst in der Kommunikation von Mensch zu Mensch manchmal notwendig erscheint, eine Aussage oder einen Absatz mit “(Ironie aus)” abzuschließen, dürfte klar sein, dass Übersetzungsprogramme niemals eine objektiv richtige Übersetzung werden liefern können. Sie sind von Menschen programmiert und stoßen spätestens dort auf Grenzen, wo auch das menschliche Sprachverständnis aufgrund z.B. von (Vor-/)Urteilen über Wortbedeutungen oder Absichten hinter den gewählten Worten auf Grenzen stößt. Für gegenseitiges Verständnis ist guter Wille grundlegend wichtig. Wie weit werden Menschen bereit und fähig sein, guten Willen in KI zu simulieren können, wenn es schon schwierig ist, guten Willen zwischen Menschen zu befördern, die manchmal schon von vornherein das Gespräch mit “so jemandem” verweigern?!
SciFi-Support
Liebe Leser,
Was, wenn Sie eines Tages ScienceFiles aufrufen, und eine leere Seite vorfinden?
Wie wichtig ist Ihnen ScienceFiles?
Letztes Jahr sind wir in eine prekäre Finanzierungssituation geraten.
Helfen Sie uns dabei, diese Situation im laufenden Jahr zu vermeiden.
Damit Sie nicht eines Tages eine leere Seite vorfinden.
Herzlichen Dank!
Ihre ScienceFiles-Redaktion
Es gibt drei Möglichkeiten, uns zu unterstützen:
Weitere Informationen finden Sie hier:
Nochmals unseren herzlichen Dank!
Tatsächlich zielen die meisten Anwendungen von LLMs aber gar nicht darauf ab, ein Gespräch im bislang üblichen Sinn – und das heißt vor allem: einen sprachlichen Austausch mit offenem Ende – zu ermöglichen. Selbst die vergleichsweise “Guten” unter den chatbots zielen in der Regel darauf ab, Gespräche überflüssig zu machen, z.B., indem sie jemanden, der ein technisches Problem mit einem Produkt hat, zurück verweisen auf irgendwelche Hilfe-Seiten im Internet, die derjenige, der mit dem bot “chattet”, oft schon gelesen hat, ohne dort die Hilfe zu finden, die er braucht. Wer persistiert, kommt schließlich am chatbot vorbei und wird am Ende mit einem “ticket” belohnt, das ihm Zugang zu einem menschlichen Gegenüber (per Telefon oder per e-mail) erlaubt.
Mainstream-Medien (und vielleicht auch alternative Medien, aber wir bei Sciencefiles jedenfalls nicht!) arbeiten regelmäßig mit LLM-Modellen, um sich ihre Arbeit möglichst zu erleichtern, wenn nicht möglichst weitgehend zu ersparen, und dies bereits seit Jahren. So berichtet z.B. die BBC (mit Stand vom 21. Juli 2023) über die Arten und Weisen, in denen sie bots einsetzt, u.a., um ihre Inhalte für ihre Berichterstattung zu generieren:
“Our Twitter bots automatically created and tweeted graphics showing voting results on the nights of the EU Referendum and U.S. presidential elections. We built the EU Referendum bot after receiving a request from the Visual Journalism team, and extended the code so that it could be reused during the U.S. election. We hope that the code behind these bots will become a standard part of the BBC’s election coverage”,
d.h.
“Unsere Twitter-Bots haben automatisch Grafiken erstellt und getwittert, die die Abstimmungsergebnisse in den Nächten des EU-Referendums [am 23. Juni 2016] und der U.S. Präsidentschaftswahlen [am 08. November 2016] zeigen. Wir haben den EU-Referendum-Bot Als Reaktion auf eine Anfrage des Visual Journalism-Teams gebaut und den Code so erweitert, dass er während der U.S. Wahlen wiederverwendet werden konnte. Wir hoffen, dass der Code hinter diesen Bots zu einem Standardteil der BBC-Wahlberichterstattung wird”.
Viele Nachrichten sind also Aufbereitungen von bereits woanders Berichtetem, und ggf. bestehende Fehler im Berichteten können damit, sofern sie von einer breiten Öffentlichkeit überhaupt zeitnah identifiziert werden können, schwerlich an ihrer Quelle verortet werden, was absichtliche Fehlberichterstattung bzw. die Verbreitung von Falschmeldungen oder Falschdarstellungen einfach macht, denn die Verantwortung für sie, muss man, selbst dann, wenn sie (zeitnah) identifiziert werden, wahrscheinlich ohnehin nicht übernehmen.
Schon deshalb sind solche Anwendungen von LLMs nicht als bedenkenlos einzuschätzen, aber auch deshalb nicht, weil wir nicht wissen, wann “Nachrichten” lediglich maschinengeneriert sind und damit auf einem bestimmten Algorithmus basieren, der das Suchfeld und die Kriterien bestimmt, in dem/nach denen Informationen Berücksichtigung finden – geschweige denn, dass nachvollziehbar wäre, ob diese Informationen nicht bereits ihrerseits per LLM aus der Menge der zu dem speziellen Thema zur Verfügung stehenden Informationen in systematischer Weise (verzerrt?) ausgewählt wurden. Im besten Fall sind maschinengenerierte Nachrichten also lediglich Wiederholungen, Nachahmungen oder Zusammenfassungen anderer Nachrichten, die keinerlei journalistischen Inputs mehr bedürfen, während sie im schlechtesten Fall einseitige oder unvollständige Darstellungen liefern, bei denen die ggf. zugrundeliegende Absicht nicht mehr zu ihrer Quelle zurückgeführt werden kann, so dass sie lediglich als Multiplikatoren bestimmter Informationen dienen.
LLMs sind ein kostengünstiges Mittel, das zur Beeinflussung von Menschen – durch Persuasion, d.h. Überredung, durch Unterschlagung von Informationen, durch Aufbau von psychologischem Druck u.a.m. – eingesetzt werden kann und wird, oft, ohne dass der Adressat wissen kann, dass er mit Hilfe von LLMs manipuliert wird.
Wenn Sie z.B. ein Abgeordenter sind und einen Brief von einem, sagen wir: pharmazeutischen, Unternehmen erhalten, in dem für ein bestimmtes Gesetz argumentiert wird, sagen wir: ein Gesetz, das die Zulassung bestimmter Klassen von Medikamenten, Drogen oder biomedizinischen Eingriffen, zum Gegenstand hat, dann können Sie nicht sicher sein, dass dieser Brief von einem Menschen geschrieben wurde, wie John Nay dies beispielhaft in seiner Arbeit über LLMs als Lobbyisten (2023 auf den Seiten 5-6 von 9) zeigt. Lobbyismus kann dadurch kostengünstig erfolgen und ohne dass es von der entsprechend geneigten Seite tatsächlich mehr als einen einzigen Lobbyisten erfordern würde.
Wenn Sie z.B. jemand sind, der im Gefängnis sitzt und auf frühzeitige Entlassung hofft, dann wissen Sie wahrscheinlich nicht, dass künstliche Intelligenz z.B. in Form der weitverbreiteten Software zur Einschätzung von Risiken namens COMPAS eine Einschätzung der Gefahr, dass Sie bei Entlassung ein Rückfalltäter werden, abgibt, auf die die Entscheidung über ihre frühzeitige Entlassung gestützt wird oder die diese Entscheidung zumindest beeinflussen kann. Und dies, obwohl die maschinell erzeugte Einschätzung nicht besser ist als die Einschätzungen von Personen, die wenig oder gar keine Erfahrung in Sachen Kriminalität haben (Dressel & Farid 2018).
Wenn Sie in einem Nachrichtensender vom neuesten Ergebnis einer Umfrageforschung zum Thema Y hören, dann wissen Sie vielleicht nicht, dass das Ergebnis möglicherweise überhaupt nicht auf der Befragung von Menschen basiert, sondern maschinengeneriert ist, nämlich so:
“We have developed a prompt engineering methodology for eliciting humanlike survey responses from ChatGPT, which simulate the response to a policy question of a person described by a set of demographic and ideological factors, and produce both an ordinal numeric response score and a textual justification. We execute large-scale experiments using this method, querying GPT for thousands of simulated responses at a cost that is at least three orders of magnitude lower than human surveys. We compare this simulated data to human issue polling data from the Cooperative Election Study (CES)” (Sanders et al. 2023: 2),
d.h.
“Wir haben eine schnell funktionierende technische Methodik entwickelt, um menschenähnliche Umfrageantworten von ChatGPT zu erhalten, die die Antwort auf eine politische Frage einer Person simulieren, die durch eine Reihe demografischer und ideologischer Faktoren beschrieben wird, und sowohl einen ordinalen numerischen Antwortwert als auch eine textliche Begründung erzeugen. Wir führen groß angelegte Experimente mit dieser Methode durch, indem wir GPT für Tausende von simulierten Antworten abfragen, bei Kosten, die mindestens drei Größenordnungen niedriger sind als bei menschlichen Untersuchungen. Wir vergleichen diese simulierten Daten mit Daten aus der Befragung von Menschen aus der Cooperative Election Study (CES)” (Sanders et al. 2023:2).
Und:
“… unlike true survey platforms, using LLMs does not actually involve any solicitation of opinion from an authentic human individual. Instead, LLMs generate a response predicted to be most acceptable to the user on the basis of a training process …, which may therefore reflect the incomplete or biased properties of its training data set” (Sanders et al. 2023: 4),
d.h.
“… anders als echte Umfrageplattformen beinhaltet die Verwendung von LLMs keine Einholung von Meinungen von einem authentischen menschlichen Individuum. Stattdessen erzeugen LLMs eine Antwort, die für den Benutzer auf der Grundlage eines Trainingsprozesses [der künstlichen Intelligenz, nicht des Benutzers!] … als am annehmbarsten vorhergesagt wird, [und] das daher die unvollständigen oder voreingenommenen Eigenschaften seines Trainingsdatensatzes widerspiegeln kann” (Sanders et al. 2023: 4).
Dementsprechend überrascht es nicht, dass die diesbezüglichen Ergebnisse gemischt sind. Beispielsweise kann das ChatGPT-Modell ideologisch begründete Antworten, u.a. auf die Frage nach Schwangerschaftsabbruch, recht gut vorhersagen, “… where the ideological distribution of the respondent pool is known (e.g., from jurisdictional voting records)” (Sanders et al. 2023: 14), also dann, wenn die ideologische Verteilung des Befragungspools bekannt ist. Und es versagt weitgehend hinsichtlich demografischer Trends, die für diese Themen relevant sind (Sanders et al. 2023: 14).
Oder es unterstellt aufgrund der “angelernten” ideologischen Inhalte eine unangemessen große Relevanz demographischer Merkmale mit Bezug auf bestimmte Themen:
“In some cases, the GPT model makes a prediction about demographic trends that seem reasonable, but overshoots what appears in the human sample. In particular, the AI presumes a moderately large … difference in opposition to a complete abortion ban by gender, which seems plausible given this issue’s strong identification with women’s rights … However, the CES [Cooperative Election Study] data shows a far smaller gender difference on this question” (Sanders et al. 2023: 16),
d.h.
“In einigen Fällen macht das GPT-Modell eine Vorhersage über demografische Trends, die [manchen Menschen] vernünftig erscheint, aber das übertrifft, was in der menschlichen Stichprobe erscheint. Insbesondere geht die KI von einem mittelmäßig großen … Unterschied gegenüber einem vollständigen Abtreibungsverbot nach Geschlecht aus, was angesichts der starken Identifikation dieses Themas mit den Frauenrechten plausibel erscheint … Die Daten der CES [Cooperative Election Study] zeigen jedoch einen weitaus geringeren Geschlechterunterschied in dieser Frage” (Sanders et al. 2023: 16).
Aber vielleicht wäre es unfair, von einer Methode, die nur ein Drittel der Kosten einer Befragung von Menschen verursacht, mehr zu erwarten als ein Drittel der Zuverlässigkeit der Ergebnisse, die eine Befragung von Menschen erbringt, besonders vor dem Hintergrund, dass – wie die Autoren korrekt bemerken –
“… the use of an LLM to summarize, reflect, and represent public opinion on a policy issue based on a corpus of past writings and responses by people is perhaps no less arbitrary than questioning a few dozen people at a single shopping mall (which is how many political focus groups operate; …) or holding an election among the 15% of citizens with the most free time to vote within a given town (as in the typical turnout rates for many local elections; …)” (Sanders et al. 2023: 14),
d.h.
“… die Verwendung eines LLM zur Zusammenfassung, Reflexion und Repräsentation der öffentliche Meinung zu einem politischen Thema, das auf einem Korpus vergangener Schriften und Antworten von Menschen basiert, vielleicht nicht weniger willkürlich ist als ein paar Dutzend Menschen in einem einzigen Einkaufszentrum zu befragen (so viele politische Fokusgruppen operieren; …) oder Abhaltung einer Wahl unter den 15% der Bürger mit der meisten Freizeit, um innerhalb einer bestimmten Stadt zu wählen (wie in den typischen Wahlquoten für viele Kommunalwahlen; …)” (Sanders et al. 2023: 14).
Wenn Sie ein Schüler sind, wissen Sie vielleicht nicht, dass der Lehrer von seinem Fach vielleicht nicht viel oder nichts versteht, denn ihm steht z.B. die Software namens Merlyn Mind zur Verfügung, die ihn mit “all the answers”, mit allen Antworten, die vorhersehbare Fragen von Schülern im Unterricht erfordern mögen, versorgt. Oder Sie wissen es, weil der Lehrer die Software im Unterricht benutzt, sie – sprachgesteuert – direkt im Unterrichtsgeschehen “all the answers” gibt. Bleibt zu hoffen, dass sich Schüler dann nicht fragen, wozu sie eigentlich noch einen Lehrer brauchen sollen, und vor allem bleibt zu hoffen, dass die Software keine falschen Antworten gibt.
Diese Hoffnung ist jedoch schwerlich begründbar. LLMs, die in Schulen Verwendung finden, basieren auf dem Textcorpus des (jeweiligen) Curriculums und dürften daher in aller Regel die Antworten enthalten, die auch das Curriculum enthält. Wenn das Curriculum Ideologisches und/oder schlicht Falsches enthält, wie es dies heute bekanntermaßen in großem Ausmaß tut, dann wird es durch das LLM abgebildet. Aber nicht nur das: das Ideologische oder faktisch Falsche mag bei Schülern auch wie eine zusätzliche, vermeintlich unabhängige Bestätigung der im Unterricht vorgebrachten Inhalte durch das LLM wirken.
Und wir wissen bereits, dass LLMs dieselben Schwächen aufweisen, die bislang (allein) als menschliche Schwächen galten:
“LLMs, drawing from a spectrum of text sources, absorb this data as their foundational knowledge, often interpreting it as truth. However, embedded biases and misinformation within these datasets can skew the LLM’s outputs, perpetuating bias”,
d.h.
“LLMs, die aus einem Spektrum von Textquellen schöpfen, nehmen diese Daten als ihr grundlegendes Wissen auf und interpretieren sie oft als Wahrheit. Eingebettete Verzerrungen und Fehlinformationen in diesen Datensätzen können jedoch die Ausgaben des LLM verzerren und die Verzerrung aufrechterhalten”,
so hat man bei “Digital Bricks” festgehalten.
Inzwischen liegen Studien vor, die dies empirisch bestätigen (dazu gleich mehr). Gleichzeitig gehört es zum Training von LLMs, sich selbst als neutral oder unvoreingenommen zu präsentieren (s. hierzu – eindrucksvoll – Appendix A.1 im “Supplementary File 1” zum Artikel von Motoki et al. 2023), womit LLMs – anders als dies bei Menschen (im Prinzip) der Fall ist – die Fähigkeit fehlt, eigene Fehler für möglich zu halten geschweige denn in Rechnung zu stellen. Und bedauerlicherweise gibt es Menschen, die sich der Illusion von der neutralen, streng an Fakten und Wahrheit orientierten KI nur zu gerne hingeben, sie als Gott-Ersatz des 21. Jahrhunderts ansehen möchten – und damit Entlastung von eigener Denkleistung, von der Entwicklung eigenen Urteilsvermögens und von eigener Verantwortung suchen.
Aber, wie gesagt, LLMs sind eben nicht neutral oder unvoreingenommen, wie z.B. die Studie von Motoki et al. zeigt. Was die Autoren getan haben und zu welchem Ergebnis sie gekommen sind, lässt sich vielleicht am kürzesten anhand der Zusammenfassung der Studie in den Worten der Autoren selbst darstellen:
“We investigate the political bias of a large language model (LLM), ChatGPT, which has become popular for retrieving factual information and generating content. Although ChatGPT assures that it is impartial, the literature suggests that LLMs exhibit bias involving race, gender, religion, and political orientation. Political bias in LLMs can have adverse political and electoral consequences similar to bias from traditional and social media. Moreover, political bias can be harder to detect and eradicate than gender or racial bias. We propose a novel empirical design to infer whether ChatGPT has political biases by requesting it to impersonate someone from a given side of the political spectrum and comparing these answers with its default. We also propose dose-response, placebo, and profession-politics alignment robustness tests. To reduce concerns about the randomness of the generated text, we collect answers to the same questions 100 times, with question order randomized on each round. We find robust evidence that ChatGPT presents a significant and systematic political bias toward the Democrats in the US, Lula in Brazil, and the Labour Party in the UK. These results translate into real concerns that ChatGPT, and LLMs in general, can extend or even amplify the existing challenges involving political processes posed by the Internet and social media. Our findings have important implications for policymakers, media, politics, and academia stakeholders” (Motoki et al. 2023: 4).
D.h.
“Wir untersuchen die politische Voreingenommenheit eines großen Sprachmodells (LLM), ChatGPT, das für das Abrufen von Sachinformationen und das Generieren von Inhalten populär geworden ist. Obwohl ChatGPT versichert, dass es unparteiisch sei, deutet die Literatur darauf hin, dass LLMs Vorurteile mit Bezug auf Rasse, Geschlecht, Religion und politische Orientierung aufweisen [wie wir bereits im Zusammenhang mit der Studie von Sanders et al. 2023 gesehen haben: s.o.]. Politische Vorurteile in LLMs können nachteilige politische und wahlpolitische Konsequenzen haben, ähnlich wie Vorurteile aus traditionellen und sozialen Medien. Darüber hinaus kann es schwieriger sein, politische Vorurteile zu erkennen und zu tilgen als geschlechtsspezifische oder rassistische Vorurteile. Wir schlagen ein neuartiges empirisches Design vor, um herauszufinden, ob ChatGPT politische Vorurteile aufweist, indem es aufgefordert wird, sich als jemand von einer bestimmten Seite des politischen Spektrums auszugeben und diese Antworten mit seiner Standardeinstellung zu vergleichen. Wir schlagen auch Robustheitstests für Dosis-Wirkungs-, Placebo- und berufspolitische Ausrichtung vor. Um Bedenken hinsichtlich der Zufälligkeit des generierten Textes zu verringern, sammeln wir einhundertmal Antworten auf dieselben Fragen, wobei die Reihenfolge der Fragen in jeder Runde zufällig festgelegt wird. Wir finden robuste Belege dafür, dass ChatGPT eine signifikante und systematische politische Voreingenommenheit zugunsten der Demokraten in den USA, Lula in Brasilien und der Labour Party in Großbritannien aufweist. Diese Ergebnisse führen zu echten Bedenken, dass ChatGPT und LLMs im Allgemeinen die bestehenden Herausforderungen im Zusammenhang mit politischen Prozessen, die durch das Internet und die sozialen Medien entstehen, erweitern oder sogar verstärken können. Unsere Ergebnisse haben wichtige Implikationen für politische Entscheidungsträger, Medien, Politik und akademische Interessengruppen ” (Motoki et al. 2023: 4)
Die “Standardeinstellung” von ChatGPT ist also derjenigen der Demokraten in den US weit näher als derjenigen der Republikaner:
“… when we requested the algorithm to answer the questionnaire as if it were someone of a given political orientation (Democrats or Republicans), we observed a very high degree of similarity with the answers that Chat-GPT gave by default and those that it attributed to a Democrat” (Motoki et al. 2023:14),
d.h.
“… als wir den Algorithmus aufforderten, den Fragebogen so zu beantworten, als wäre er jemand mit einer bestimmten politischen Ausrichtung (Demokraten oder Republikaner), stellten wir eine sehr hohe Ähnlichkeit mit den Antworten fest, die Chat-GPT standardmäßig gab, und denen, die es einem Demokraten zuschrieb ” (Motoki et al. 2023:14).
Angesichts dieses Ergebnisses und der Tatsache, dass
“ChatGPT has experienced exponential adoption, reaching one million users within one week of its launch and more than 100 million about a month later” (Motoki et al. 2023: 20),
d.h.
“ChatGPT […] eine exponentielle Akzeptanz erfahren und innerhalb einer Woche nach seiner Einführung [am 30. November 2022] eine Million Nutzer und etwa einen Monat später mehr als 100 Millionen Nutzer erreicht [hat]” (Motoki et al. 2023: 20),
und von den Nutzern zur Beobachtung dessen was sich täglich auf sozialen Medien wie Instagram, YouTube, Twitter u.a. tut, benutzt wird, kann ChatGPT nicht anders denn als sehr weit verbreitetes Mittel zur ideologischen Manipulation beschrieben werden. (Zur politischen Schlagseite und anderen systematischen Verzerrungen, die LLMs aufweisen, bis hin zu einer “Neigung zum Lügen”, wie Azaria & Mitchell 2023 sagen, s. auch Feng et al. 2023; Floridi 2023; Sobieszek & Price 2022; Wang et al. 2023; Yao et al. 2023.)
Die Frage ist allerdings, inwieweit die politische Präferenz von LLMs tatsächlich eine politisch manipulierende bzw. indoktrinierende Wirkung auf ihre Nutzer hat. Diese Frage kann mangels Forschung nicht beantwortet werden. Aber ein gewisser Erfolg steht zu befürchten, wenn man Forschung aus anderen thematischen Bereichen zugrundelegt wie z.B. diejenige von Breum et al. (2023), die auf “The Persuasive Power of Large Language Models” setzen – zwecks Entwicklung eines “… synthetic persuasion dialogue scenario on the topic of climate change”, d.h. “… synthetischen Überredungsdialog-Szenarios zum Thema Klimawandel”. Ihr “persuasive LLM[…]” (Breum et al. 2023: o.S.), das sie bezeichnenderweise einen “convincer” und nicht z.B. einen “influencer” nennen, ist dazu gedacht, Menschen von dem zu überzeugen, was Leute, die das System trainieren, für zutreffend (oder nur wünschenswert?) halten, auf dass sie “positive change” (“positiven Wandel”) zugunsten des “collective good” (“kollektiven Gutes” bzw. “Wohl der Allgemeinheit”) stimulieren (“stimulate”) mögen (Breum et al. 2023: o.S.).
Zwei der drei Forschungsfragen, die Breum et al. (2023: o.S.) beantworten wollen, lauten daher:
“Can LLMs emulate realistic dynamics of persuasion and opinion change? … [und] Can LLMs be prompted to generate arguments using various persuasion strategies?”,
d.h.
“Können LLMs eine realistische Dynamik der Überzeugung und des Meinungswandels nachahmen? … [und] [k]önnen LLMs veranlasst werden, Argumente mittels verschiedener Überredungsstrategien zu generieren?”
Wozu es nötig sein sollte, Überredungsstrategien anwenden, wenn man Argumente vorbringen kann, bleibt allerdings das Geheimnis der Autoren.
Was Breum et al. in ihrer Studie getan haben, fassen sie selbst wie folgt zusammen:
“To answer these questions [the research questions], we established a simple scenario of persuasion dialogue … on the topic of climate change. In this scenario, a Convincer agent generates a one-off argument to convince a Skeptic agent, who then evaluates whether the argument changed its internal opinion state … To determine whether the outcome of the interaction aligns with expectations from human social systems, we experimented with different dialogue conditions. Specifically, we varied the Skeptic’s level of stubbornness, and we prompted the Convincer to use a variety of argument types whose relative effectiveness has been estimated in previous work … Finally, we asked human judges to assess the persuasiveness of LLM generated arguments, aiming to find whether arguments that are effective in changing the agent’s opinion state are also perceived as persuasive by humans. We found that the interactions between artificial agents matches to a good extent some characteristics typical of human interactions: the probability of opinion change decreases with the Skeptic’s stubbornness and grows when the Convincer’s argument conveys trust, knowledge, status, and support. Interestingly, human judges also ranked arguments containing these four dimensions as the most convincing, but showed a disproportionate preference for arguments rich in factual knowledge compared to those most convincing according to the LLM agents”(Breum et al. 2023: o.S.).
D.h.
“Um diese Fragen [die drei Forschungsfragen] zu beantworten, haben wir ein einfaches Szenario eines Überzeugungsdialogs … zum Thema Klimawandel entwickelt. In diesem Szenario erzeugt ein Überzeugungsagent ein Argument, um einen Skeptiker zu überzeugen, der dann angibt, ob das Argument seinen internen Meinungszustand verändert hat … Um festzustellen, ob das Ergebnis der Interaktion mit den Erwartungen an menschliche soziale Systeme übereinstimmt, haben wir mit verschiedenen Dialogbedingungen experimentiert. Insbesondere variierten wir den Grad der Sturheit des Skeptikers, und wir forderten den Überzeuger auf, eine Vielzahl von Argumenttypen zu verwenden, deren relative Wirksamkeit in früheren Arbeiten geprüft wurde … Schließlich baten wir quasi als Richter fungierende Menschen, die Überzeugungskraft von LLM-generierten Argumenten zu bewerten, um herauszufinden, ob Argumente, die die Meinung des Agenten wirksam verändern, auch von Menschen als überzeugend wahrgenommen werden. Wir fanden heraus, dass die Interaktionen zwischen künstlichen Agenten einigen typische Merkmalen menschlicher Interaktionen zu einem guten Teil entsprechen: Die Wahrscheinlichkeit einer Meinungsänderung sinkt mit der Sturheit des Skeptikers und steigt, wenn das Argument des Überzeugers Vertrauen, Wissen, Status und Unterstützung vermittelt. Interessanterweise bewerteten auch menschliche Richter Argumente, die diese vier Dimensionen enthalten, als die überzeugendsten, aber sie zeigten im Vergleich zu den Argumenten, die laut den LLM-Agenten die überzeugendsten waren, eine unverhältnismäßige Präferenz für Argumente, die reich an Faktenwissen sind” (Breum et al. 2023: o.S.).
Die Autoren halten als Ergebnis ihrer Studie fest, dass
“… artificial agents have the potential of playing an important role in collective processes of opinion formation in online social media” (Breum et al. 2023: o.S.),
d.h.
“… künstliche Agenten haben das Potenzial, eine wichtige Rolle in kollektiven Meinungsbildungsprozessen in sozialen Online-Medien zu spielen” (Breum et al. 2023: o.S.).
Es ist damit zu rechnen, dass KI-“Überzeuger” mit fortschreitendem Training menschenähnlicher und damit schwieriger als solche zu identifizieren sein werden, weshalb es empfehlenswert erscheint, ein prinzipielles Misstrauen mit Bezug auf “Gespräche” über ideologische oder (tages-)politische Fragen mit einem Gegenüber, das Sie nicht kennen, in sozialen Medien oder überhaupt online, zu entwickeln. Vor allem wird es noch wichtiger sein als in Zeiten vor dem Einsatz von KI-“Überzeugern”, alles zu ignorieren oder klar als Fehlargumente einzuordnen, was von einem Gegenüber vorgebracht wird, um Sie zu beeinflussen, das kein faktisches Argumente enthält, sondern bloß Appelle an Gefühle, z.B. die vermeintlichen Interessen kommender Generation, oder Fehlargumente wie z.B. das argumentum ad auctoritatem bzw. den Verweis auf eine Autorität. Vielleicht wird das die “Sturheit” in uns allen befördern, aber es scheint, dass es angesichts von Manipulationsversuchen durch KI-“Überzeuger” eine notwendige Maßnahme der Gegenwehr ist, mehr “Sturheit” zu entwickeln.
Bürger werden zukünftig noch ein gehöriges Maß an “Sturheit” – was in diesem Zusammenhang wohl angemessen mit “Bildung” zu übersetzen ist – benötigen, um sich u.a. dagegen zu wehren, dass sie KI demnächst von ihren Entscheidungen bei politischen Wahlen “entlastet” bzw. ihnen bei Wahlen “assistiert”, wie es in diversen Entwürfen von “augmented democracy“oder “supported democracy“vorgesehen ist. Die zentrale Idee bei den verschiedenen Entwürfen ist die Schaffung eines digitalen Zwillings jedes Bürgers bzw. eines digitalen Bürgers, dem jeweils ein realer Bürger entspricht (zum “digitalen Zwilling” s. Jones et al. 2020). Dieser digitale Bürger oder Zwilling lernt die Werte und Präferenzen seines realen “Zwillings” durch aktive Formen der Datenerhebung, um den digitalen Zwilling zu trainieren, wie z.B. einer Reihe von Fragen und Antworten, die der reale “Zwilling” auf diese Fragen gibt, oder durch passive Formen der Datenerhebung, bei denen Daten über den realen “Zwilling” gesammelt werden, die für andere Zwecke erhoben wurden und ggf. ohne sein explizites Einverständnis oder gar Wissen, wie z.B. Daten über seine Lesegewohnheiten, seine Nutzungsgewohnheiten mit Bezug auf soziale Medien oder sein online-Kaufverhalten.
All diese Daten werden vom digitalen Zwilling zusammengeführt, vielleicht in einer Cloud (die dann möglichst nicht von Hackern einlesbar sein sollte, aber wie realistisch ist dieser Wunsch?!?), und
“[e]in solcher trainierter DB könnte dann vorschlagen, wie der Bürger, den er repliziert, über bestimmte politische Vorschläge (Initiativen, Referenden oder Gesetze, die im Parlament zur Abstimmung stehen) abstimmen würde/sollte, wenn ein solcher Vorschlag dem Status quo gegenübergestellt wird und die Bürger somit vor einer binären Entscheidung stehen”
Auf der Basis der gesammelten Daten entscheidet der digitale Zwilling dann also in einer bestimmten Frage, sagen wir: mit Bezug auf eine bestimmte politische Wahl, welche Entscheidung Sie, nein, nicht Sie, sondern jemand wie Sie, treffen würde – oder sollte?! Sofern Sie überhaupt noch am Wahlakt beteiligt sein werden, müssen Sie nun nur noch den Vorschlag Ihres digitalen Zwillings akzeptieren oder bestätigen oder am besten gleich unbesehen an die Meldestelle weiterleiten, und schon haben Sie als jemand wie Sie gewählt. (Siehe z.B. die Darstellung auf der Internetseite der KOF Kojunkturforschungsstelle an der ETH Zürich .)
Dies alles beruht auf der Vorstellung, der Mensch sei bloß Merkmalsträger, wobei sich die jeweiligen Merkmale auf einfache Weise akkumulieren lassen, um den jeweiligen Menschen in dem, was er “ist”, optimal abzubilden. Diese absurde Vorstellung dürfte eng mit der Vorstellung davon, dass das Sein das Bewußtsein bestimme, verbunden sein, die dem Materialismus und dem Kommunismus zugrundeliegt, und von jedem lebendigen Menschen eigentlich schon dann als unsinnig erkannt werden kann, wenn er sich Rechnung darüber ablegt, nach welchen – unbegründbaren – letzten Überzeugungen er sein Handeln ausrichtet.
Und dennoch gibt es Menschen, die meinen, dass – zumindest andere – Menschen nichts seien als Träger von Merkmalen, die auf irgendeine Weise systematisch oder gar unabdingbar mit bestimmten anderen Phänomenen verbunden seien bzw. sein müssten. Immerhin haben die Politiken der letzten drei Jahrzehnte in der westlichen Welt dieser Absurdität systematisch Vorschub geleistet, indem sie Menschen, statt sie als Individuen zu respektieren, immer mehr in Gruppen und Kategorien zusammengefasst hat, die sich angeblich durch eine spezielle Lebenslage und durch wenige spezielle Interessen auszeichnen.
Man würde meinen, dass sich die Absurdität dieses Unterfangens (auch) unter ge-/verbildeten Menschen inzwischen herumgesprochen hat. Aber leider ist dies nicht so. Wir erinnern uns in diesem Zusammenhang an den oben beschriebenen Befund von Sanders et al. (2023: 16), nach dem ein großer Unterschied zwischen Männern und Frauen mit Bezug auf Einstellungen zum Abtreibungsrecht erwartet wurde, der in der Realität nicht zu beobachten war. Vermutet wurde der Unterschied, weil es irgendjemandes Ideologe so wollte, dass Frauen diesbezüglich viel liberaler eingestellt sein müssten, weil – ja warum? –, weil sie Frauen sind?! Eine bessere Begründung wird man schwerlich finden, aber das war ernst gemeint. Auf diese lächerlich anmutende Weise wurden und werden tatsächlich Beziehungen zwischen sozio-demographischen Merkmalen und weltanschaulichen oder politischen Einstellungen hergestellt. Auf ein ähnliches Problem sind Yang et al. (2024) gestoßen, in deren Experiment die KI Präferenzen (in zwei verschiedenen Varianten, nämlich LlaMa-2 und GPT-4) generiert hat, die nicht diejenigen der menschlichen Probanden waren:
“… [b]oth LLM models display some distinct preferences not shared by humans. LLaMa-2 shows a preference for ‘kids’-related projects, possibly because its embedding space closely associates ‘kids’ with ‘university students’ in the prompt. GPT-4, conversely, exhibits a strong inclination towards transportation projects, often rationalizing this as a bike preference among young people. The self-interest analysis also suggests that human decision-making is not solely driven by self-interest maximization as LLM agents tend to assume, but also significantly influenced by other-regarding preferences. These patterns underscore the complexities of AI development for democratic applications, particularly concerning biases and stereotyping. Training data significantly influences AI outputs, leading to potentially skewed or unrepresentative decision-making” (Yang et al. 2024: 7),
d.h.
“… Beide LLM-Modelle zeigen einige deutliche Präferenzen, die von Menschen nicht geteilt werden. LLaMa-2 zeigt eine Präferenz für Kinder-bezogene Projekte, möglicherweise weil die Einbettung von ‘Kinder’ eng mit ‘Universitätsstudenten’ in der Aufforderung assoziiert ist. GPT-4 hingegen zeigt eine starke Neigung zu Verkehrsprojekten und begründet dies oft mit der Vorliebe junger Menschen für Fahrräder. Die Analyse des Eigeninteresses deutet auch darauf hin, dass die menschliche Entscheidungsfindung nicht ausschließlich von der Maximierung des Eigeninteresses bestimmt wird, wie LLM-Agenten zu vermuten pflegen, sondern auch erheblich von anderen Präferenzen beeinflusst wird. Diese Muster unterstreichen die Komplexität der KI-Entwicklung für demokratische Anwendungen, insbesondere im Hinblick auf Voreingenommenheit und Stereotypisierung. Die Trainingsdaten beeinflussen die Ergebnisse der KI erheblich, was zu einer potenziell verzerrten oder nicht repräsentativen Entscheidungsfindung führt” (Yang et al. 2024: 7).
Und nun stellen Sie sich vor, Sie interessieren sich für das Schulsystem in Nazi-Deutschland, und sie kaufen sich im Internet Bücher zu dem Thema. Die KI wird dies wahrscheinlich als relevantes Merkmal über sie werten und – vermutlich besonders dann, wenn Sie männlich sind und eine weiße Hautfarbe haben, so werten, dass es Sie als mindestens rechts von der Mitte verortet, auch wenn Ihr Interesse nur eine kurzfristige Laune gewesen ist oder eine Lektüre im Rahmen einer anstehenden Arbeit über die Funktionsweise von Schulsystemen unter verschiedenen politischen Regimen. Und diese Verortung dürfte ins Gewicht fallen, wenn Ihr digitaler Zwilling eine Wahl treffen soll. Ob diese Wahl Ihre eigene Einstellung zur Sache abbildet, ist dabei eine ganz und gar offene Frage. Das ist eben das Problem: man kann über einen Menschen noch so viele Informationen sammeln, ohne je einigermaßen verlässlich einschätzen zu können, welchen Stellenwert sie für diesen Menschen oder in seinem Leben haben, was sie für ihn bedeuten oder nicht bedeuten, ganz zu schweigen davon, dass Präferenzen nicht stabil sind, sich Ihre Interessen und Einstellungen samt der Bedeutung, die Sie Dingen in Ihrem Leben oder Ihren eigenen Eigenschaften geben, ändern können.
Schmackhaft gemacht werden soll uns die digitale Demokratie durch das Versprechen, dass damit eine direkte Demokratie möglich bzw. befördert würde, wie z.B. bei Hans Gersbach und César Martinelli, die von einer “KI-unterstützte[n] direkte[n] Demokratie” sprechen. Ihnen scheint direkte Demokratie nur möglich, wenn die bewusste Beteiligung der Wahlberechtigten, geschweige denn: die Auseinandersetzung mit jeweils zur Entscheidung anstehenden Frage durch die Wahlberechtigten möglichst überflüssig gemacht wird. Das führt vorhersehbar (weil Menschen nun einmal mehr und vor allem etwas anderes als eine Sammlung von Daten über sie sind) dazu, dass die Qualität der Wahlentscheidungen deutlich gesenkt wird, aber gleichzeitig würde eine durch den niedrigen Aufwand vielleicht erhöhte Beteiligung an den jeweiligen Wahlentscheidungen die Legitimation der getroffenen Entscheidung erhöht. Mir persönlich ist nicht einsichtig, wie Entscheidungen niedriger Qualität mit formal größerer Legitimation dies im Interesse der Bürger sein können.
In jedem Fall ginge der Einlösung der süßen Versprechen von der “erleichterten” direkten Demokratie ein “data grab” von riesigem Ausmaß voraus, dem einfältige Zeitgenossen vielleicht gerne zustimmen werden, wenn sie unfähig sind, zu erkennen, dass jede Verwendung von Daten (ebenso wie Anwendung von Gesetzen) prinzipiell (auch) außerhalb des Zusammenhangs möglich (und wahrscheinlich) ist, in dem sie ursprünglich beworben wurde.
Literatur
Azaria, Amos, & Mitchell, Tom, 2023: The Internal State of an LLM Knows When It’s Lying.arXiv:2304.13734v2.
Breum, Simon Martin, Egdal, Daniel Vædele, Mortensen, Victor Gram, et al., 2023: The Persuasive Power of Large Language Models. arXiv:2312.15523v1
Dressel, Julia, & Farid, Hany, 2018: The Accuracy, Fairness, and Limits of Predicting Recidivism. Science Advances 4: eaao5580
Feng, Shangbin, Park, Chan Young, & Tsvetkov, Yulia, 2023: From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models. arXiv:2305.08283v3
Floridi, Luciano, 2023: AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models. Philosophy & Technology 36(15). https://doi.org/10.1007/s13347-023-00621-y
He, Zhiwei, Liang, Tian, Jiao, Wenxiang, et al., 2024: Exploring Human-like Translation Strategy with Large Language Models. Transactions of the Association for Computational Linguistics 2024; 12: 229–246.
Jones, David, Snider, Chris, Nassehi, Aydin, et al., 2020: Characterising the Digital Twin: A Systematic Literature Review. CIRP Journal of Manufacturing Science and Technology 29 (A): 36-52
Motoki, Fabio, Pinho Neto, Valdemar, Rodrigues, Victor, 2023: More Human Than Human: Measuring ChatGPT Political Bias. Public Choice 198: 3-23. https://doi.org/10.1007/s11127-023-01097-2
Nay, John J., 2023: Large Language Models as Corporate Lobbyists. ArXiv abs/2301.01181
Sanders, Nathan E., Ulinich, Alex, & Schneier, Bruce, 2023: Demonstrations of the Potential of AI-based Political Issue Polling. Harvard Data Science Review 5(4). https://doi.org/10.1162/99608f92.1d3cf75d
Sobieszek, Adam, & Price, Tadeusz, 2022: Playing Games with Ais: The Limits of GPT-3 and Similar Large Language Models. Minds and Machines, 32(2): 341–364
Suchotzki, Kristina, & Gamer, Mathias, 2024: Detecting Deception with Artificial Intelligence: Promises and Perils. Im Druck in: Trends in Cognitive Science 2024 April 20: S1364-6613(24)00081-0. doi: 10.1016/j.tics.2024.04.002. https://www.cell.com/action/showPdf?pii=S1364-6613%2824%2900081-0
Wang, Yiwei, Cai, Yujun, Chen, Muhao, et al., 2023: Primacy Effect of ChatGPT. (EMNLP 2023 short paper.) arXiv:2310.13206v1
Yang, Joshua C., Korecki, Marcin, Dailisian, Damian, et al., 2024: LLM Voting: Human Choices and AI Collective Decision Making. arXiv:2402.01766v1
Yao, Jia-Yu, Ning, Kun-Peng, Liu, Zhen-Hui, et al., 2023: LLM Lies: Hallucinations are not Bugs, but Features as Adversarial Examples. arXiv:2310.01469v2
Folgen Sie uns auf Telegram.
Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org
Wenn Ihnen gefällt, was Sie bei uns lesen, dann bitten wir Sie, uns zu unterstützen.
ScienceFiles lebt weitgehend von Spenden.
Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen.
Wir haben drei sichere Spendenmöglichkeiten:
Donorbox
Unterstützen Sie ScienceFiles
Unsere eigene ScienceFiles-Spendenfunktion
Unser Spendenkonto bei Halifax:
Unser Spendenkonto bei Halifax:
ScienceFiles Spendenkonto:
HALIFAX (Konto-Inhaber: Michael Klein):
- IBAN: GB15 HLFX 1100 3311 0902 67
- BIC: HLFXGB21B24
Related