zur Navigation springen

Gefahr der Wahlmanipulation : Von guten und bösen Bots

vom
Aus der Redaktion der Zeitung für die Landeshauptstadt

Sie informieren übers Wetter und bringen News, lösen den Anruf im Call-Center ab – werden aber auch darauf angesetzt, Wahlen zu manipulieren.

svz.de von
erstellt am 15.Jul.2017 | 07:00 Uhr

Alles beginnt mit einem „Hallo!“. Max Koziolek tippt die Begrüßung in eine Maske in seiner Software – und lässt gleich weitere folgen. „Guten Tag!“, „Hi!“, „Grüß Gott!“. Die Maschine wird dann eines der Worte auswählen. Koziolek programmiert einen Chatbot - eine Software, die sich im Netz mit Menschen unterhält. Er ist Chef des Berliner Start-ups Spectrm.

Es hilft Medienunternehmen, ihre Inhalte in einfachen Dialogen rüberzubringen. Wie etwa: „Möchtest du mehr darüber erfahren?“ Je nachdem, ob der Nutzer „Ja“ oder „Nein“ eintippt, wird der nächste Informationsschnipsel eingeblendet. Oder die Software wechselt zum nächsten Thema.

Bots sind ein aktuelles Netz-Phänomen mit entsprechendem Hype. Schon jetzt kommen wir immer wieder mit ihnen in Kontakt, zum Beispiel wenn man Assistenten wie „Siri“ oder „Alexa“ nach dem Wetter fragt. Und in Zukunft wird man noch häufiger auf Bots treffen. Etwa wenn Dialog-Software in großem Stil im Kundendienst von Unternehmen die Call-Center ersetzt. Die Kehrseite des Trends ist die Angst vor Bot-Armeen, die Wahlen beeinflussen, indem sie die öffentliche Meinung manipulieren.

Hinter den heutigen Bot-Konversationen steckt noch mehr Mensch als Maschine. Die Äußerungen der Software bewegen sich in einem engen Rahmen, der vom Programmierer vorgegeben wurde.

„Die Antworten, die ein Chatbot gibt, müssen auf irgendeine Weise von Menschen erstellt werden“, sagt Koziolek. Chatbots, die selbst Inhalte formulieren und eine Unterhaltung führen können, seien zwar definitiv das Ziel. „Das wird früher oder später kommen.“ Doch im Moment komme man nicht daran vorbei, auch selbstlernende Bots von Menschen beaufsichtigen zu lassen.

Eine Frage der Persönlichkeit

Auch wenn heutige Chatbot-Kontakte simpel anmuten, der Aufwand dahinter ist groß. Immer wieder versuchten Nutzer, vom geplanten Dialogpfad abzuweichen – „auszubrechen“, wie Koziolek es nennt. Was macht man dann? Eine Lösung ist, die Frage einfach zu wiederholen. Oder der Bot fischt eine freche Bemerkung aus seinem programmierten Satz-Fundus. „Das hängt davon ab, welche Persönlichkeit man dem Bot geben will.“ Persönlichkeit? Soll ein Chatbot menschlich rüberkommen – oder einfach nur seine Aufgabe erfüllen? Hier scheiden sich die Geister.

Koziolek ist dafür: „Wenn man den Bot menschlicher erscheinen lässt, funktionieren viele Sachen einfach besser“, sagt er.

Internet-Investor Phil Libin, der gerade in San Francisco ein Studio für Bot-Entwickler aufbaut, ist ganz anderer Meinung. „Wenn ich als Nutzer auf einen Chatbot treffe, will ich meistens nur ein Problem gelöst haben, sonst nichts. Dafür muss er nicht einen Menschen imitieren.“

Risiko automatische Meinungsmache

Wer sich schon von der Idee her als Mensch ausgibt, sind die sogenannten Social Bots, die Online-Netzwerke wie Twitter und Facebook mit Einträgen fluten. Spätestens seit der auch stark durch Internet-Kampagnen entschiedenen US-Präsidentenwahl gelten sie als Schreckgespenst für die Demokratie.

Amerikanische IT-Sicherheitsexperten vermuten hinter Tausenden Profilen, die etwa mit verzerrenden Kommentaren zu Medienberichten Stimmung machen, zwar weniger Automaten, sondern eine Legion günstiger Arbeitskräfte, die nach Vorgaben Botschaften in Smartphones tippen. Mit Dutzenden Geräten pro Person. „Einmal haben sie vergessen, das GPS von einem solcher Telefone abzuschalten. Es befand sich in Sankt Petersburg“, sagt ein ranghoher US-Fachmann.

Aber was oder wer auch immer dahintersteckt – in der deutschen Politik formiert sich ein Konsens, davon die Finger zu lassen.

Der Bot Jäger

Die Gefahr der automatisierten Stimmungsmache bringt auch Bot-Jäger wie Christian Stöcker auf den Plan. Schon in seiner Zeit als Journalist beschäftigte er sich mit dem Thema. Heute ist er Professor an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg und informiert als Experte politische Entscheider in Berlin darüber, welche Auswirkungen Bots haben können. Und wie man sie aufspürt. Dazu läuft in Hamburg sowie anderen Orten der Welt ein Forschungsprojekt.

Stöckers Kollegen entwickeln ein System, das Bots enttarnen kann. „Bots sind ein bewegliches Ziel“, sagt der Bot-Jäger in Hamburg. Entwickler bauen immer ausgefeiltere Netze, um unentdeckt zu bleiben. Damit sind die Gejagten ihren Verfolgern meist einen Schritt voraus.

Noch. Das wurmt den 44-Jährigen. Er gestikuliert, beschreibt eigene Erfahrungen mit Bot-Accounts. Vor allem auf Twitter, wo viele lauern.

Am Tag der Brexit-Entscheidung – also der Abstimmung zum Austritt aus der EU – schrieben ihn mehrere angebliche Nutzer aus Großbritannien mit immer der gleichen Frage an: „Wird Angela Merkel den Brexit akzeptieren?“ Am Ende fand Stöcker heraus: Mehrere deutsche Journalisten wurden von rund 40 Accounts angetwittert – mit der gleichen Frage. Wohl in der Hoffnung, dass Meinungsführer den Satz retweeten oder in ihre Berichterstattung aufnehmen. Und so eine angebliche Sorge der britischen Bevölkerung transportieren.

Gut gemachte Accounts für solche Aktionen werden, so berichten US-Experten, normal angelegt: mit Profilbild und ein paar Einträgen wie einem Cappuccino-Foto aus einem Lokal. Und dann eingemottet. Bis sie vor einem Großereignis wie einer Wahl in Massen aufwachen.

Wie man Bots erkennt

Stöcker ist fasziniert. Die Diskussion über Social Bots mündet für ihn am Ende in eine grundsätzliche, moralische Frage: „Habe ich als Mensch das Recht zu wissen, ob ich mit einer Maschine kommuniziere oder nicht?“ In nicht allzu ferner Zukunft müsse das die Gesellschaft für sich entscheiden. Am Ende vielleicht die Politik.

Was also unterscheidet einen menschlichen von einem künstlichen Twitter-Nutzer? Kann ich Social Bots sogar selbst aufspüren?

„Ja“, sagt der Hamburger Experte. Wenn die automatisierten Systeme nicht allzu komplex sind, können einige Kriterien helfen, Bots zu erkennen:

  • Ein Account hat kein Profilbild, dann kann er ein schlicht gemachter Bot sein: „Hier sollte man als Erstes skeptisch werden.“
  • Die Twitter-Biografie ist nicht ausgefüllt oder macht sprachlich keinen Sinn: „In der Biografie eines Bots, der mich bei Twitter angeschrieben hatte, stand: ,Ich bin ein junger Vater einer Familie und liebe den Kuchen.‘ Spätestens an dieser Stelle ist klar, dass das eine mit einer Übersetzungssoftware erstellte Biografie ist.“
  • Das Profil folgt vielen anderen Accounts, hat aber kaum eigene Follower: „Ein typisches Bot-Merkmal.“
  • Von dem Profil werden ungewöhnlich viele Tweets abgesetzt: „Ein Account, der pro Minute einen Tweet schreibt, 24 Stunden am Tag, kann eigentlich kein Mensch sein.“
  • Das Profil retweetet deutlich mehr, als eigene Tweets zu schreiben: „Denn das ist für einen Bot viel einfacher.“
  • Der Account nutzt häufig eine feste Kombination von Hashtags: „Das ist bei Bots gängig, um bestimmte Hashtags populär zu machen.“

Es lebe der gute Bot

Dass wir in Zukunft in vielen Lebensbelangen zunehmend häufiger mit Maschinen Kontakt haben werden, scheint klar. Facebook will mit seinem Kurzmitteilungsdienst Messenger ein Vorreiter sein. Die Plattform soll zum Ort werden, an dem Unternehmen über Bots mit Kunden kommunizieren, sagt Messenger-Chef David Marcus. „Keine Warteschleifen im Call Center mehr. Stattdessen hat man als Kunde auch gleich alle nötigen Daten und Unterlagen an einem Ort.“

Über 30.000 Bots, bei denen man sich zum Beispiel über Wetter oder aktuelle News informieren kann, sind bereits auf der Messenger-Plattform aktiv.

dpa_1895dc004a637d9e
 

HIntergrund: Bots außer Kontrolle: Debakel mit „Tay“

Das Chatbot-Programm „Tay“ war 2016 ein Experiment des US-Computerriesen Microsoft – eine Software, die sich zwanglos mit Nutzern unterhält und von ihnen lernt. Doch der Versuch geriet schnell zum Debakel: Skrupellose Nutzer brachten „Tay“ unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.

Wie konnte das passieren? Die Entwickler hatten „Tay“ zwar Filter gegen obszöne Ausdrücke verpasst. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internet-Nutzern bei politischen Themen sowie ihren Erfindungsreichtum. So erwies sich ein simples „Sprich mir nach!“ als Falle: Man konnte „Tay“ damit dazu bringen, alle möglichen Parolen zu wiederholen.

Außerdem schien „Tay“ Sätze wiederzugeben, die häufig fielen – und viele mit einem „Haha“ für einen Scherz zu halten. „Tay“ sollte im Netz ursprünglich die Persönlichkeit einer jungen Frau simulieren. Als Zielgruppe war „Tay“ auf Internet-Nutzer im Alter von 18 bis 24 Jahre ausgerichtet. Dafür wurde die Software unter anderem mit Sprüchen von Comedians aufgepeppt.

Erst versuchte Microsoft, die anstößigen Tweets zu löschen. Dann verkündete „Tay“ über den Twitter-Account „@TayandYou“, sie müsse nach so vielen Gesprächen schlafen und ging vom Netz.

 

zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Kommentare

Leserkommentare anzeigen