Digitale Propaganda Wie Social Bots den Wahlkampf erobern

Über gefälschte Profile werden in den Sozialen Medien massenhaft Meldungen verbreitet, um so die Meinungshoheit zu gewinnen und die Wähler zu manipulieren.

Nach dem ersten TV-Duell sahen die Experten Hillary Clinton vorne - doch bei Twitter sorgten Bots für ein entgegengesetztes Stimmungsbild. (Archivbild)

Foto: Peter Foley

Berlin. Die Amis tun es , die Südkoreaner haben es getan, die Briten ebenfalls und die AfD liebäugelt damit. Social Bots erobern den Wahlkampf. Ihr Auftrag: Manipulation des Wählers durch digitale Propaganda. Der Weg: Durch automatisierte Einträge massenhaft Aussagen in den sozialen Medien verbreiten und so die Meinungshoheit gewinnen.

Sie das sind Roboter (Bots ist die Abkürzung für robots), die in den sozialen Netzwerken eingesetzt werden. Diese Maschinen verwenden oft authentisch klingende Nutzerprofile für ihre automatisiert generierten Nachrichten, geben vor, „echte“ Menschen zu sein und keine Software. Zirka 400 Euro muss man für 10.000 Fakeaccounts (gefälschte Profile) auf den Tisch legen.

Christian Grimme leitet an der Universität Münster ein Projekt, dass sich mit der Meinungsbeeinflussung durch Social Bots befasst.

Christian Grimme befasst sich an der Universität Münster im Rahmen eines Projekts mit Social Bots: „Wir betrachten die Fragestellung, wie man mit solchen Programmen verdeckte Propaganda betreiben kann und wie man diese am besten identifiziert und nachweist.“ Denn, so der Wirtschaftsinformatiker, der massive und verdeckte Einsatz solcher Propaganda-Bots könne den gesellschaftlichen Meinungsbildungsprozess prägen. Insbesondere, wenn sie „in sozialen Netzwerken von vielen Menschen oder auch Journalisten (als glaubwürdigen Multiplikatoren) als repräsentativ angesehen werden“.

Themen werden gepusht oder unterdrückt, Stimmungen transportiert, die es eigentlich gar nicht gibt. Besonders gefährlich wird es, wenn diese „sehr knappe (gegebenenfalls sehr emotionale) Entscheidungen beeinflussen. „Ob so etwas wie die Bundestagswahl dadurch wirklich manipulierbar ist“, ist für Grimme aber fraglich.

Oder: Die University of Washington fand heraus, dass beim Brexit-Referendum im Juni 2016 30 Prozent der Tweets von nur einem Prozent der Nutzer mit einer hohen Frequenz abgeben wurde. Ein Hinweis auf Bots. Der laut „Spiegel“ „gravierendste bekannt gewordene Fall“ ereignete sich 2012 in Südkorea: Im Vorfeld der Präsidentschaftswahl steuerte der Geheimdienst „Stimmungsbots“, die gegen den politischen Gegner der heutigen Präsidentin agierten.

In Deutschland mahlen die Mühlen bekanntlich bedächtiger. Aber auch hier stehen Wahlkämpfe vor der Tür, positionieren sich die Parteien. In einer Umfrage des WDR lehnten alle im nordrhein-westfälischen Landtag vertretenen Parteien Social Bots ab. Für Wirbel sorgte die AfD, deren Bundesvorstandsmitglied Alice Weidel im „Spiegel“ zunächst deren Einsatz für selbstverständlich hielt, wenig später aber in einer Pressemitteilung zurückruderte: „Wir überlegen selbstverständlich, welche Tools im Social-Media-Bereich für unsere Öffentlichkeitsarbeit sinnvoll sind. . . Jedoch werden wir natürlich keine social bots einsetzen, die auf Seiten Dritter im Namen der AfD automatisiert posten oder ähnliches.“

CDU-Vorsitzende und Bundeskanzlerin Angela Merkel dagegen rief auf dem Deutschlandtag der Jungen Union Mitte Oktober zum gemeinsamen Einsatz der Parteien gegen Bots auf und stieß auf offene Ohren. Den Verzicht der im Bundestag vertretenen Parteien auf Bots begrüßt auch Grimme, warnt aber, dass es „naiv wäre zu glauben, dass dies den Einsatz von Social Bots verhindert“. Denn, so Grimme weiter: „Andere Interessengruppen können die offenen Schnittstellen sozialer Medien genauso nutzen und versuchen die Meinung bzgl. verschiedener Themen zu beeinflussen. Und dagegen können die Parteien trotz ihrer Erklärungen nichts tun.“

Hinzu kommt, dass der Einsatz von Social Bots nur schwierig nachzuweisen ist. Grimme: „Sind sie durch echt aussehende Profile und menschenähnliches Verhalten getarnt, fällt es oft schwer den Bot dahinter zu erkennen. Unser Projekt forscht genau an der Frage der Erkennung und betrachtet dafür nicht einzelne Posts, sondern Kommunikationsverläufe über lange Zeit, über viele Medien hinweg und natürlich auch auf technischer Ebene, um Muster erkennen zu können.“ Das Problem sei aber, gerade bei verdeckt und anonym agierenden Bots, den Urheber dingfest zu machen. Zumal Propaganda oder Hass in Deutschland auch von Programmen kommen kann, die im Ausland betrieben werden. Bundesjustizminister Maas, der immer wieder gegen Hate Speech bei Facebook ankämpft, kann ein Lied davon singen.

Am ehesten können denn auch die Netzwerke selbst die künstlichen Twitterer und Facebooker enttarnen. Aber damit stecken die Unternehmen in einem Dilemma, so der netzpolitische Aktivist Markus Beckedahl im WDR: Gehen sie gegen die Accounts vor, stärkt es ihre Glaubwürdigkeit, gefährdet aber ihre Einnahmen, denn viele Accounts bedeuten auch viel Werbung.

Sind wir der automatisierten Stimmungsmache also machtlos ausgeliefert? Der Einsatz der Bots ist nicht strafbar, widerspricht aber den AGBs der Anbieter sozialer Netzwerke. Nur wenn sie strafrechtlich relevante Inhalte verbreiten, kann dies natürlich zu juristischen Konsequenzen führen. Eine schnelle gesetzliche oder technische Lösung des Problems hält Grimme denn auch für unrealistisch.

Er plädiert dafür, dass „wir uns zunächst einfach persönlich klar werden müssen, dass es diese Möglichkeit der Manipulation gibt. Wir sollten deshalb in unserem durch soziale Medien beeinflussten Meinungsbildungsprozess gelegentlich auch selbst nachdenken und Mehrheitsmeinungen in sozialen Medien mit kritischem Verstand begegnen.“ Also einfach mal die Facebook- oder Twitter-Blase verlassen und in der analogen Welt nach Informationen suchen.