Campus Wuppertal Fake-News: Wenn die Nachricht zu gut klingt, um wahr zu sein

Wuppertal · Uni-Informatiker Hendrik Heuer darüber, wie KI zum Problem wird, wenn Beachtung stärker gewichtet wird als Bedeutung.

Nicht alle Nachrichten im Netz lassen sich gut auf ihren Wahrheitsgehalt überprüfen.

Foto: UniService Third Mission

Die Meldung über eine Sonderauswertung der Pisa-Studie 2022 alarmierte jüngst die Internetnutzer bundesweit. Darin wurde festgestellt, dass mehr als die Hälfte der Schüler in Deutschland nach eigenen Angaben Probleme haben, Falschinformationen im Internet zu erkennen. Hendrik Heuer, Professor für Design vertrauenswürdiger Künstlicher Intelligenz an der Bergischen Universität, erforscht, ob und wie Nutzer Vertrauen in KI-Systeme aufbauen können mit dem Ziel, neue soziale Medien von und für Nutzer zu entwickeln.

„Wir brauchen ein grundsätzliches Verständnis“, sagt Heuer, „wir müssen schon grob verstehen, wie ein ChatGPT (ChatGPT ist ein Chatbot des US-amerikanischen Softwareunternehmens OpenAI, mit dem Nutzer über textbasierte Nachrichten und Bilder kommunizieren können, Anm. d. Red.) die Sachen berechnet, damit man bestimmte Fehler auch früher erkennen kann. Wir brauchen auch Möglichkeiten zur Kontrolle.“

Andreas Schlenkhoff

Foto: UniService Third Mission

Zu Heuers Forschung gehört auch der Kampf gegen Miss- und Desinformationen, den man bei der Flut an Tagesnachrichten kaum gewinnen kann. „Das ist ein dickes Brett, dass wir bohren müssen“, lacht der Fachmann, der mit seinem Team kürzlich bei einem Kongress des Chaos-Computer-Klubs einen Vortrag mit dem Titel „Von Augustus bis Trump“ gehalten hat und damit belegt, dass Fake-News schon seit der Antike genutzt wurden, um sich einen politischen oder persönlichen Vorteil zu verschaffen. Im Unterschied zu damals habe man aber heute KI-Systeme, die viel schneller Falschinformationen generieren können, sowie Soziale Medien, über die man viel mehr Menschen erreichen könne. „Auch, wenn es ein Kampf gegen Windmühlen ist, müssen wir da ran. Es ist eine gesamtgesellschaftliche Aufgabe.“

Ein besonderer Fokus von Heuers Arbeit liegt auf den Sozialen Medien und auf der Frage, wie sie verbessert werden können. Schon lange beschäftigt er sich daher bereits mit Plattformen wie etwa X, vormals Twitter, oder Facebook. Er denkt aber außerdem, dass neue, unabhängige Plattformen entwickelt werden können.

„Ich habe die Idee, wenn wir aus der Gleichung mal rausnehmen, dass wir mit Werbung ganz viel Geld machen müssen, wir alleine hier in Wuppertal mit den Informatikstudierenden eine Plattform bauen könnten, die die meisten Leute für ihre Familie, ihre Hobbys, ihren World-of-Warcraft-Clan oder welche Gruppe ihnen auch immer wichtig ist, nutzen können, um damit Bilder zu teilen und eine gute Zeit zu haben.“

Viele Nutzer Sozialer Medien sehen sich häufig nicht in der Lage, Falschinformationen zu erkennen. Doch auch da weiß der Fachmann einen Rat. „Die ganz klassische Nummer ist die Nachricht, die zu gut klingt, um wahr zu sein, die ist dann meistens auch falsch“, erklärt Heuer, „das gilt auch für Sachen, die sehr emotional sind. Es ist immer auch ein sozialer Prozess, das heißt, man sollte Leute in seinem Umfeld fragen.“ Verschiedene Studien hätten bereits gezeigt, dass es Kriterien gebe, Informationen einzuordnen. „Einmal sind es die Inhalte. Sind sie besonders außergewöhnlich, kann man alternative Medien oder Zeitungen heranziehen, die auch darüber berichten. Der zweite Punkt ist die politische Ausrichtung von etwas. Wenn sich etwa eine Internetseite zu einer bestimmten Partei verhält und das Parteilogo auf der Seite hat, dann ist das nicht das, was wir vom Journalismus erwarten.“

Die Bundestagswahlen stehen vor der Tür. Die Wähler sind unsicherer als jemals zuvor, und die Möglichkeiten der Vermittlung von Falschinformationen, gerade in diesem sehr kurzen Wahlkampf, sind besonders vielfältig. Heuer hat zusammen mit einer Kollegin der Harvard-Universität die Glaubwürdigkeit von Nachrichtenwebseiten untersucht, dazu Journalisten und Politiker befragt und sagt: „Als Kriterien hatten wir unter anderem bestimmte Inhalte wie Verschwörungstheorien, ob stark mit bestimmten politischen Parteien zusammengearbeitet wird, wer für eine Seite als Autor oder Autorin tätig wird, ob journalistische Standards eingehalten werden und wem eine Webseite gehört.“

Bis zu 70 Prozent der auf YouTube angesehenen Videos werden von einem KI-System ausgewählt. Wenn so ein System erwiesenermaßen auch auf Freundschaften und Bekanntschaften Einfluss nimmt, kann es vielleicht auch politischen Einfluss nehmen und dann wird es gefährlich. „Vor allem seitdem es TikTok gibt, wird noch mehr durch KI ausgesucht“, erklärt der Fachmann. „Wie sehr KI da auf Politik Einfluss nehmen kann, ist aber auch sehr schwer erforschbar. Einige wenige KI-generierte Beeinflussungen ändern vielleicht noch nicht mein Wahlverhalten, aber in der Summe macht das natürlich schon was mit den Leuten. Die Nachrichten, die ich mir in Summe angucke, haben sicher einen Einfluss darauf, wie ich die Welt wahrnehme.“

KI-Systeme sind sehr empfänglich für Aufmerksamkeit, daraus kann sich ein Problem entwickeln. Dazu Heuer: „Wenn da eine Nachricht ist, über die viel geredet wird, und das kann auch eine Falschinformation sein, macht der Algorithmus keinen Unterschied zwischen Bedeutung und Beachtung. Wenn etwas viel Beachtung findet, freut es sich, zeigt es noch mehr Leuten und dann findet es noch mehr Beachtung. Man weiß auch, dass gerade stark emotionalisierende Sachen sehr viel Beachtung finden. Und da muss man ran.“