Die Enquete-Kommission KI des Deutschen Bundestages hat von diversen Expert*innen Stellungnahmen zu Social Bots eingeholt. Hier mein Text.
Erläuterungen zu den Fragen der Enquete Kommission "Künstliche Intelligenz" zum Thema Social Bots
Was sind Social Bots?
Social Bots sind automatisch gesteuerte Accounts
in den sozialen Netzwerken, die vorgeben, echte Nutzer*innen zu sein
(Hegelich 2016: 2, Hegelich/Sharezaye 2017: 33, Hegelich/Janetzko
2016, Thieltges/Hegelich 2018: 358, Thieltges/Schmidt/Hegelich 2016:
253). Diese Definition klingt einfach, ist aber aus
wissenschaftlicher Sicht problematisch (vgl. ebenfalls Hegelich 2016:
2, Hegelich/Sharezaye 2017: 33, Hegelich/Janetzko 2016,
Thieltges/Hegelich 2018: 358, Thieltges/Schmidt/Hegelich 2016: 253).
Was genau ist ein Soziales Netzwerk? Kann ein öffentliches
Diskussionsboard im Netz schon als Netzwerk gelten? Wie sieht es mit
Messengerdiensten aus? Was ist ein Account? Reicht es, wenn ein
Eintrag in der Nutzerdatenbank des Netzwerks generiert wurde, oder
muss dieser Account auch aktiv sein? Ist ein gesperrter Account noch
ein Account? Was ist ein*e echte*r Nutzer*in? Muss das eine
biologische Person sein und wenn ja, kann einePerson als mehrere
Nutzer*innen im selben Netz auftreten und ist sie dann immer noch
echt? Oder geht es rein um den Akt der Nutzung des Sozialen Netzwerks
(wie die Monthly Active User Metriken nahe legen)? Und schließlich
bleiben die zwei entscheidenden Fragen: Wie lässt sich feststellen,
dass ein Account vorgibt, ein*e echte*r Nutzer*in zu sein? Und was
heißt automatisch gesteuert?
Jede dieser Fragen ist es wert, sich mit ihr zu
beschäftigen.
Die Unklarheit, die offenbar in der gegenwärtigen Debatte zu Social Bots herrscht, hat etwas damit zu tun, dass man unterschiedliche Antworten auf diese Fragen geben kann. Auf der anderen Seite ist die Definition, wie sie oben genannt ist, durchaus nachvollziehbar, und spiegelt die empirische Wirklichkeit Sozialer Netzwerken durchaus wieder. Konzentrieren wir uns auf die beiden letztgenannten Fragen: Mit dem Aufkommen der großen Sozialen Netzwerke, insbesondere Facebook, war die Vorstellung verbunden, mit Big Data Analysen könne man nun die öffentliche Meinung unmittelbar erfahren, da die Menschen ihre Präferenzen über die Sozialen Netzwerke kundtun (zur Kritik dieser Vorstellung siehe Ruth/Pfeffer 2014). Wenn nun aber eine solche Äußerung einer angeblichen Präferenz durch ein Programm erfolgt, dann ist dieses Signal verzerrt. Dies ist der simple Kern der Debatte um Social Bots. Automatisierung und Verschleierung gehören also unmittelbar zusammen, weil die Erwartung an ein Soziales Netzwerk ist, dass hier in irgendeiner Weise die unmittelbaren Präferenzen der Nutzer*innen dargestellt werden. Dieser Zusammenhang wird deutlicher, wenn man konkrete Beispiele betrachtet: Die großen Sozialen Netzwerke verfügen allesamt über unterschiedliche Kanäle, um Nutzerpräferenzen abzubilden. Bei Facebook können Nutzer*innen z. B. Inhalte posten, in einem Feed oder in einer Story, andere Inhalte kommentieren, Likes oder weitere Reactions hinterlassen, anderen Nutzern*innen folgen, deren Seite abonieren, einer Gruppe beitreten usw. Wenn ich nun eine Software einsetze, die nach programmierten Regeln eine solche Nutzerpräferenz abgibt, also zum Beispiel systematisch jeden Beitrag auf einer bestimmten Seite liked, dann ist das nach der obigen Definition ein Social Bot. Unter dem entsprechenden Beitrag bei Facebook steht jetzt eine Zahl, die alle Likes zusammenfasst. Es entsteht die Suggestion, dies wäre die Anzahl der Leute, die nach dem lesen des Beitrags Sympathie bekunden wollen. Allerdings habe, ich den Post gar nicht gelesen , sondern mein Programm hat einfach nur diese Reaktion durchgeführt . Ich würde anhand dieses Beispiels sogar noch weiter gehen: Selbst wenn im Nutzerprofil des automatisierten Like-Accounts deutlich angegeben ist, dass es sich um einen Bot handelt, lässt sich argumentieren, dass der Account vorgibt, ein*e echte*r Nutzer*in zu sein. Denn es ist einfach nicht üblich, bei jeder Reaktion in den Sozialen Netzwerken das Profil zu analysieren, von dem sie ausgeht. Bei Facebook würde auf der ersten Ebene einfach nur die Anzahl der Likes gelistet. Erst wenn ich mir das ansehe, kommt eine Liste mit den Accounts, die diese Likes gesetzt haben. Und erst wenn ich diese Liste Eintrag für Eintrag durchgehe, habe ich die Chance, mir ein Bild über die Herkunft der Likes zu machen. Und selbst wenn ich dann diesen Like als Produkt einer Automatisierung erkenne, heißt dies noch lange nicht, dass er wirkungslos bleibt. Denn die Frage, welche Inhalte die Nutzer angezeigt bekommen, ist in den Sozialen Netzwerken selber Produkt einer Automatisierung: Facebook berechnet zum Beispiel für jeden Nutzer ein Ranking aller Posts, die angezeigt werden könnten. Und die Anzahl der schon stattgefundenen Interaktionen mit diesen Posts ist dabei ein wichtiges Kriterium - Facebook nennt das “meaningful interaction”. Nur was massenhaft geteilt, geliked, kommentiert usw. wird, wird in den Sozialen Netzwerken wirklich sichtbar.
Die Unklarheit, die offenbar in der gegenwärtigen Debatte zu Social Bots herrscht, hat etwas damit zu tun, dass man unterschiedliche Antworten auf diese Fragen geben kann. Auf der anderen Seite ist die Definition, wie sie oben genannt ist, durchaus nachvollziehbar, und spiegelt die empirische Wirklichkeit Sozialer Netzwerken durchaus wieder. Konzentrieren wir uns auf die beiden letztgenannten Fragen: Mit dem Aufkommen der großen Sozialen Netzwerke, insbesondere Facebook, war die Vorstellung verbunden, mit Big Data Analysen könne man nun die öffentliche Meinung unmittelbar erfahren, da die Menschen ihre Präferenzen über die Sozialen Netzwerke kundtun (zur Kritik dieser Vorstellung siehe Ruth/Pfeffer 2014). Wenn nun aber eine solche Äußerung einer angeblichen Präferenz durch ein Programm erfolgt, dann ist dieses Signal verzerrt. Dies ist der simple Kern der Debatte um Social Bots. Automatisierung und Verschleierung gehören also unmittelbar zusammen, weil die Erwartung an ein Soziales Netzwerk ist, dass hier in irgendeiner Weise die unmittelbaren Präferenzen der Nutzer*innen dargestellt werden. Dieser Zusammenhang wird deutlicher, wenn man konkrete Beispiele betrachtet: Die großen Sozialen Netzwerke verfügen allesamt über unterschiedliche Kanäle, um Nutzerpräferenzen abzubilden. Bei Facebook können Nutzer*innen z. B. Inhalte posten, in einem Feed oder in einer Story, andere Inhalte kommentieren, Likes oder weitere Reactions hinterlassen, anderen Nutzern*innen folgen, deren Seite abonieren, einer Gruppe beitreten usw. Wenn ich nun eine Software einsetze, die nach programmierten Regeln eine solche Nutzerpräferenz abgibt, also zum Beispiel systematisch jeden Beitrag auf einer bestimmten Seite liked, dann ist das nach der obigen Definition ein Social Bot. Unter dem entsprechenden Beitrag bei Facebook steht jetzt eine Zahl, die alle Likes zusammenfasst. Es entsteht die Suggestion, dies wäre die Anzahl der Leute, die nach dem lesen des Beitrags Sympathie bekunden wollen. Allerdings habe, ich den Post gar nicht gelesen , sondern mein Programm hat einfach nur diese Reaktion durchgeführt . Ich würde anhand dieses Beispiels sogar noch weiter gehen: Selbst wenn im Nutzerprofil des automatisierten Like-Accounts deutlich angegeben ist, dass es sich um einen Bot handelt, lässt sich argumentieren, dass der Account vorgibt, ein*e echte*r Nutzer*in zu sein. Denn es ist einfach nicht üblich, bei jeder Reaktion in den Sozialen Netzwerken das Profil zu analysieren, von dem sie ausgeht. Bei Facebook würde auf der ersten Ebene einfach nur die Anzahl der Likes gelistet. Erst wenn ich mir das ansehe, kommt eine Liste mit den Accounts, die diese Likes gesetzt haben. Und erst wenn ich diese Liste Eintrag für Eintrag durchgehe, habe ich die Chance, mir ein Bild über die Herkunft der Likes zu machen. Und selbst wenn ich dann diesen Like als Produkt einer Automatisierung erkenne, heißt dies noch lange nicht, dass er wirkungslos bleibt. Denn die Frage, welche Inhalte die Nutzer angezeigt bekommen, ist in den Sozialen Netzwerken selber Produkt einer Automatisierung: Facebook berechnet zum Beispiel für jeden Nutzer ein Ranking aller Posts, die angezeigt werden könnten. Und die Anzahl der schon stattgefundenen Interaktionen mit diesen Posts ist dabei ein wichtiges Kriterium - Facebook nennt das “meaningful interaction”. Nur was massenhaft geteilt, geliked, kommentiert usw. wird, wird in den Sozialen Netzwerken wirklich sichtbar.
Wer daher diese einfach zu automatisierenden
Reaktionen per Definition ausschließt und stattdessen behauptet, ein
Social Bot müsste - am besten noch eigenständig und mit eigenen
Zielen - Texte generieren, hat nicht verstanden, wie Soziale
Netzwerke funktionieren oder ist Teil eines rechthaberischen
Diskurses, auf den noch gesondert einzugehen ist. Wer von einem
Social Bot erwartet, einen Turing-Test zu bestehen, redet nicht mehr
über die angesprochene Verzerrung eines Präferenzsignals, sondern
letzten Endes über allgemeine künstliche Intelligenz (Artificial
General Intelligence (AGI) oder Strong AI). Was nicht heißen soll,
dass nicht auch Texte von Bots generiert werden: Allerdings bislang
in der Regel so, dass sich der Bot einfach bei einer schon
bestehenden Quelle (Internetseite oder RSS-Feed) bedient, oder eine
Liste von kurzen Texten abarbeitet und dabei verschiedene Varianten
produziert (was gerade bei allgemeinen positiven oder negativen
Kommentaren nicht schwierig ist). Es ist davon auszugehen, dass
Fortschritte in der Natural-Language-Processing-Subdisziplin der
Automatic Text Generation auch die Texte besser machen, die Social
Bots “selbst” kreieren.
Dennoch ist die Automatisierung, die der
Definition zugrunde liegt, in vielen Fällen in einem Graubereich.
Zum einen gibt es Tools, wie das von Twitter selbst betriebene
Tweetdeck oder die Software Tapbot, die es den Nutzer*innen
ermöglichen, mehrere Accounts zu verwalten, und Tweets erst später
abzusenden und somit zumindest das Zeitsignal zu verzerren. Würde
man jede diese Aktionen als Social Bot bezeichnen, dann ist schnell
jede*r , die*der einen alternativen Client benutzt, ein Bot.
Umgekehrt gibt es aber auch echte Nutzer*innen, die sich ganz wie
Bots verhalten: Sie folgen einem Skript, dass ihnen vorgibt, welche
Beiträge sie unterstützen sollen, wann sie welchen Hashtag
verwenden müssen, welche Inhalte wo abgesendet werden usw. und
benutzen dafür eben die oben genannten Programme. Ob ein bestimmter
Effekt besser mit einem Programm oder mit einer Gruppe von Leuten
erreicht werden kann, die sich im Zweifelsfall wie Roboter verhalten,
ist häufig eine Kalkulation, welche Mittel zu welchem Preis zur
Verfügung stehen. Um diese Verwischung deutlich zu machen, verwenden
wir den Begriff der hyperaktiven Nutzer*innen (Papakyriakopoulos et
al. 2020). Hier wird die Frage nach dem Ursprung ausgeklammert und
stattdessen auf die Wirkung geschaut, die mit solchen Methoden (egal
ob menschlich, teil- oder vollständig automatisiert) erreicht
werden.
Welche Technologie steckt in Social Bots?
Um einen Bot zu betreiben braucht es nicht viel.
Ein Server muss Informationen aus dem entsprechenden Sozialen
Netzwerk empfangen, verarbeiten und dann den Status im Sozialen
Netzwerk verändern können (also posten, liken, retweeten usw.). Die
Kommunikation zwischen Server und Sozialem Netzwerk findet entweder
über eine automatische Schnittstelle (API) oder über den “normalen”
Internetzugriff statt. Letzteres funktioniert in der Regel nur, wenn
ein Browser benutzt wird, der selbst programmierbar ist, wie zum
Beispiel "Selenium". Diese beiden unterschiedlichen Wege
des Datentransfers zwischen Server und Sozialem Netz sind sehr
bedeutend: Wird der Zugang über eine API hergestellt, dann kann das
Soziale Netzwerk genau steuern, welche Daten unter welchen
Bedingungen abfließen und welche Kommunikationskanäle wie von außen
bedient werden können. So sind zum Beispiel Limits von Zugriffen in
einem bestimmten Zeitraum üblich. Die Daten über eine API sind
strukturiert und müssen nicht den Daten entsprechen, mit denen das
Soziale Netzwerk intern arbeitet. Wird ein Bot direkt über den
normalen Onlinezugang gesteuert, dann stehen genau die Daten zur
Verfügung, die normale Nutzer*innen auch speichern könnten. Umfang
und Struktur der Daten sind dann in der Regel nicht identisch mit den
API-Daten. Zum Beispiel kann man sich über die Crowdtangle API von
Facebook anzeigen lassen, wie oft eine öffentliche Seite geliked
wurde. Öffnet man die Seite in einem Browser (oder lässt ein
Programm das machen), sieht man auch, wer die Seite geliked hat. Die
Programmierung automatisierter Browser ist in der Regel wesentlich
schwieriger als die Interaktion mit einer API, zumal die Sozialen
Netzwerke versuchen, diese Zugriffe zu erschweren. Durch Fortschritte
in der Programmierung automatisierter Browser (zum Beispiel direkt in
den Programmiersprachen R oder Python) wird dieser Weg allerdings
immer attraktiver. Für die Netzwerke (und die Forscher) ergibt sich
damit das Problem, dass Bots, die nicht über die API agieren, sich
zunächst nicht von normalen Nutzern*innen unterscheiden. Solche Bots
lassen sich nicht an der Datenstruktur erkennen, sondern können -
wenn überhaupt - nur durch Muster entdeckt werden, die durch die
Automatisierung entstehen und von normalem menschlichen Verhalten
abweichen.
Wie “intelligent” ein Bot ist, liegt in erster
Linie an der internen Datenverarbeitung. Die Abbildung zeigt die zwei
Möglichkeiten als Flowdiagramm.
Der interne Datenverarbeitungsprozess ist von der
Kommunikation mit dem Sozialen Netzwerk getrennt. Soll heißen: Wenn
der Datenaustausch zwischen Server und Sozialem Netzwerk
funktioniert, dann kann im Prinzip jedes KI-Verfahren eingesetzt
werden, um den Bot “intelligent” zu machen. Studierende lernen in
meinen Seminaren zum Beispiel, mit Deep Learning automatisch neue
Tweets im Stil von Trump zu erstellen, passende Emojis automatisch in
Texte einzufügen oder automatische Zusammenfassungen von
Nachrichtenfeeds zu generieren. Microsoft hat schon vor Jahren mit
einem Bot experimentiert, der aus der Kommunikation mit anderen
Nutzer*innen lernt, neue Sätze zu generieren
(https://en.wikipedia.org/wiki/Tay_(bot)).
Dieser Bot wurde gezielt von rechtsradikalen Nutzer*innen getrollt,
so dass er dann rassistische Äußerungen von sich gab, die
Textgenerierung war aber ziemlich intelligent. Generell wurden in den
letzten Jahren große Fortschritte bei Chat-Bots erzielt und
technisch spricht nichts dagegen, diese - häufig frei verfügbaren -
Ansätze auch auf Bots in den Sozialen Netzwerken zu übertragen.
Theoretisch ist es also möglich, einen Social Bot mit der ganzen
Wucht moderner Ansätze aus dem Bereich Natural Language Processing
auszustatten. Es ist allerdings schwierig, sich ein Szenario
vorzustellen, wo das tatsächlich sinnvoll wäre. Welchen Nutzen
hätte ein Bot, der unkontrolliert und zufällig Texte von hoher
Qualität schreibt? Für die allermeisten Absichten wird man
schnellere und bessere Ergebnisse erzielen, wenn der Bot durch
einfache Heuristiken gesteuert ist: Man erstellt eine Liste mit
Accounts, deren Inhalt der Bot liken oder retweeten soll, verknüpft
eine dynamische Quelle mit Inhalten (häufig RSS-Newsfeeds) aus denen
der Bot sich bedient, legt vielleicht noch die wichtigsten Hashtags
fest, auf die der Bot reagieren soll und gießt das Ganze in einen
Zeitplan (eventuell mit indiziertem Zufall, um die Erkennung
schwieriger zu machen) oder definiert Ereignisse in den Sozialen
Netzwerken, auf die der Bot automatisch reagiert. Das Ergebnis ist
dann ein relativ primitiver SPAM-Bot, der für sich genommen
sicherlich keinen politischen Diskurs beeinflusst, durch die
Verzerrung des Präferenzsignals aber eventuell trotzdem eine Wirkung
erzielt.
Für diese Art von Bots stehen gerade für Twitter
jede Menge vorgefertigte Tools zur Verfügung. In unserer Datenbank an der TUM haben wir diverse Tweets aus dem politischen Diskurs in Deutschland gesammelt. (Die Daten sind kein repräsentatives Sample und es landet auch viel darin, was eigentlich nicht politisch ist). An drei Beispielen werden im Folgenden drei Automatisierungstools vorgestellt. Die Twitter-Ids aller
Tweets in unserer Datenbank, die von diesen drei beispielhaft
ausgewählten Automatisierungstools veröffentlicht wurden, können
über folgenden Link abgerufen und dann analysiert werden:
https://drive.google.com/file/d/1ETgiJUSDfpwq3kFoe9CIlzOGu6706cos/view?usp=sharing
https://drive.google.com/file/d/1ETgiJUSDfpwq3kFoe9CIlzOGu6706cos/view?usp=sharing
Cheapbotsdonequick ist eine Webseite, mit der man
einen bestehenden Twitteraccount innerhalb von wenigen Minuten in
einen Bot verwandeln kann. Man meldet sich an, gibt Texte ein, die
der Bot posten soll und kann Alternativen für einzelne Worte
festlegen, wodurch ganz einfach eine große Variation an Inhalten
erzeugt werden kann. Dann legt man fest, wie oft der Bot posten soll
und den Rest erledigt das Programm. Es fallen keine Kosten an. An der
TUM sammeln wir Twittermeldungen, die Schlagworte aus dem politischen
Diskurs enthalten und können eine Datenbank mit 1,7 Milliarden
Tweets durchsuchen.- Das Sample hat aber einen starken Bias und es
landet auch vieles in der Datenbank, was politisch nicht wirklich
relevant ist. 2019 hatten wir 63.000 Tweets, die laut Metadaten von
Cheapbotsdonequick versendet wurden. Dazu muss man wissen, dass
Twitter zu jedem Tweet über die API bis zu 1.400 weitere
Informationen zur Verfügung stellt. Dazu gehört die Variable
„Source“, die anzeigt, über welche App der Tweet gesendet wurde.
Wird hier auf ein Bot-Programm verwiesen, dann ist der entsprechende
Tweet garantiert automatisch versendet worden. Als Beispiel ist
Cheapbotsdonequick interessant, weil die Plattform hält, was sie
verspricht: Ohne irgendwelche Programmierkenntnisse lassen sich in
kürzester Zeit Bots generieren. Die Tabelle zeigt ein paar zufällig
ausgewählte Texte aus unseren Daten.
Are Nazis cool
yet?,arenaziscoolyet,no! Nazis are still not cool
|
Endless Screaming ⚧
☭,infinite_scream,@hacks4pancakes AHHHHHHHHHHHHHHHH
|
Donald Trump
Sr.,TrumpIdeasBot,"I've got a great idea, the greatest idea,
just the best: legalize hate crimes so cops can focus on what's
important: saluting the flag"
|
"Media, but
Social",MediaButSocial,"Ha, still here? We've all moved
to https://t.co/BpFzO9NIKE!
Instead of tweets we have
touzts!"
|
taz Klima
#FridaysForFuture,tazKlima,"@KoehneAnja Danke für den Tweet!
Ich bin ein Roboter. Wenn du mit Menschen sprechen möchtest,
wende dich bitte an: https://t.co/nmfXe2xzvo"
|
Dumb Brags,dumbbrags,"Just
so you know, I'm a scarily good Angela Merkel boy toy, which is
why I'm so relatable."
|
Twittbot.net ist eine ausgereiftere Botplattform
aus Japan. In unserer Datenbank gab es 2019 260.000 Tweets, die laut
Metadaten eindeutig von twittbot.net kommen. Viele Tweets sind auf
japanisch, häufig Nachrichten über Deutschland (vermutlich über
RSS-Feeds generiert). Die Plattform wurde als Beispiel gewählt, weil
es überprüfbar und eindeutig eine reine Botplattform ist, nicht
weil sie eine große Bedeutung hat.
Seafoods
Lover,Seafoods_Lover,"If #Tweet4Taiji is about animal
cruelty, you should focus on livestock. They suffer horribly for
years! Dolphins a few minutes. #Tweet4Taiji"
|
#Japan #ShinzoAbe Govt
disregards #pressfreedom
#RSF urges Japan to give
back passports to ex-hostage j… https://t.co/uE80Dx4HW9"
|
宮島正,yasuokajihei,"史上初の人体神経直結の義手を開発 精密な動作と触覚が実現
https://t.co/UyhdyJy14v
|
fromjpn311,fromjpn311,"#Fukushima
#nuclear #disaster #japanesefood #WTO
#HumanRightsViolations
#Japan Abe govt still ignore
many problems… https://t.co/HVupSTIJM8"
|
""#Fukushima
‘under control’? #ShinzoAbe is lying, Japan’s ex-PM says""
|
about problematic
Japan,0123qaz,"#G20 #Japanese #Fascism
The Leader Who Was ‘Trump
Before #Trump’
Under Prime Minister
#ShinzoAbe, #Japan has taken… https://t.co/CYPn9VrdHh"
|
IFTTT (if this than that) ist ein allgemeiner
Automatisierungsservice. Als Beispiel ist IFTTT interessant, weil
sich damit sehr einfach unterschiedliche Plattformen verbinden
lassen. Ich nutze den Dienst zum Beispiel selbst, um automatisch
Tweets zu generieren, wenn ich einen neuen Artikel auf meinem Blog
gepostet habe (mein eigener Twitter-Account ist also regelmäßig ein
Social Bot). In unseren Daten finden sich für 2019 878.000 Tweets,
die eindeutig über diesen Service erzeugt wurden.
Statement von Kurz am Abend - Auch
Bundespräsident spricht https://t.co/ABi8xN5P1j
|
Merkel heir faces widespread
criticism after proposal to regulate online opinion
https://t.co/fFRPx9ET5i
|
"RT BILD_Hamburg ""Rathaus
intern - Wie Deutschland die Grünen bange macht
https://t.co/jEa7U64xKN #Hamburg #Nachrichten #News"
|
Tom Gotthen,_unterhaltung,Ursula von der Leyen:
Die Soldaten erfuhren mit als Erste vom Rücktritt der Ministerin
- WELT https://t.co/7el35jfkGx
|
April-Zahlen - Arbeitslosigkeit in Eurozone auf
tiefstem Stand seit 2008 https://t.co/wATQeml67I
|
Neueste Wahlumfragen,dawum_de,"#Wahltrend
(Min.-Max.) Brandenburg (13.06.19): AfD: 19,6-21%, SPD: 18-21,4%,
CDU: 16,3-20%, Linke: 14-19,5%, Grüne:… https://t.co/0FfsM5N8Lv
|
Was zeigen diese Beispiele? Zunächst einmal ist
es absolut unstrittig, dass es eine Vielzahl von Tweets mit
politischem Inhalt gibt, die über eine Automatisierungssoftware
versendet werden. Die Beispiele zeigen aber auch, dass es kaum
vorstellbar ist, dass diese Art von Nachrichten einen unmittelbaren
Einfluss auf die politische Willensbildung haben. Allerdings wird
auch sehr deutlich, dass eine Analyse von Inhalten in den Sozialen
Netzwerken den Kontext mit einbeziehen muss. Häufig werden zum
Beispiel Links versendet und ohne die Überprüfung der Seiteninhalte
kann nicht gesagt werden, ob Links die mit harmlos erscheinenden
Überschriften auf Twitter gepostet werden, nicht zu gezielten
Falschinformationen führen. Soziale Netzwerke sind keine in sich
geschlossenen Plattformen, sondern eingebettet in ein Ökosystem mit
wechselseitiger Verlinkung. Und selbst wenn Informationen völlig
harmlos sind, kann das automatisierte Teilen dennoch zu einer
problematischen Verzerrung führen: Erstens verändert sich dadurch
die Distribution der Informationen. Denn alle Netzwerke setzen
Algorithmen ein, die populäre Beiträge (und Themen, Hashtags und
Nutzer) noch prominenter machen. Zweitens verzerrt die automatische
Verbreitung von Informationen eventuell auch das menschliche Urteil
darüber. Ein Tweet, der schon häufig geteilt wurde, erscheint
vielleicht als glaubwürdiger. Drittens besteht eine nachgewiesene
Strategie von Desinformationskampagnen darin, neue Nachrichtenkanäle
aufzubauen, die zunächst völlig seriös berichten und dadurch eine
Anhängerschaft aufbauen. Dadurch entstehen die Möglichkeiten, die
Berichterstattung entweder leicht zu verzerren oder zu einem späteren
Zeitpunkt gezielt Falschinformationen zu senden. In welchem Umfang
diese Probleme aber tatsächlich zu berücksichtigen sind, kann eine
oberflächliche Betrachtung nicht aufzeigen.
Viel interessanter ist allerdings, was die
Beispiele nicht zeigen: Die gewählten Dienste zur Automatisierung
sind extrem leicht zu identifizieren, da sie sich in den Metadaten
eindeutig zu erkennen geben. Jedes Forschungsteam, dass Zugriff auf
die Twitter-API hat, ist in der Lage, an diese Informationen zu
kommen. Es gibt jedoch keinerlei Grund anzunehmen, dass dieses so
leicht zu identifizierende Sample das Ausmaß der Automatisierung
auch nur halbwegs abbildet. Im Gegenteil: Mit der Analyse der
Metadaten auf diese Weise können keine Programme identifiziert
werden, die über die API das Datenfeld “source” gezielt
überschreiben. Ebenso wenig können Bots erkannt werden, die die API
gar nicht benutzen, sondern direkt über das Internet mit dem
Sozialen Netzwerk agieren. Da die Analyseeinheit hier der einzelne
Tweet ist, finden wir auch keine Spuren von Bots, die systematisch
Tweets liken.
Selbst auf Twitter bezogen haben wir es also mit
einem drastischen “Survivorship Bias” zu tun. Die Bezeichnung
kommt daher, dass die Alliierten im 2. Weltkrieg die Flugzeuge, die
zurückkamen auf Einschusslöcher untersucht haben und basierend auf
diesen Statistiken die Flugzeuge gezielt verstärkt haben. Sie hätten
allerdings die Flugzeuge untersuchen müssen, die nicht zurückkamen,
sondern abgeschossen wurden. Dasselbe ist hier der Fall: So lange wir
nur die Bots analysieren, die leicht zu erkennen sind, haben wir
keine brauchbare Information darüber, was Bots in den Sozialen
Netzwerken tatsächlich machen oder nicht machen.
Aus politikwissenschaftlicher Sicht ist es zudem
nahezu undenkbar, dass nicht längst mächtige staatliche Akteure mit
nahezu unbegrenzten Ressourcen austesten, ob man mit Bots nicht
tatsächlich etwas bewegen kann. Es ist nicht anzunehmen, dass ein
“State-Sponsored-Actor” eine Billigplattform wie
Cheapbotsdonequick benutzt. Interessant wäre auch eine offizielle
Anfrage des Parlaments an die Regierung, ob deutsche
Sicherheitsbehörden über Techniken zur (Teil-)Automatisierung von
Social Media Accounts verfügen.
Es ist zudem sehr merkwürdig, dass beim Thema
Bots immer über Twitter gesprochen wird, obwohl es keinen
technischen Grund gibt, warum man dieselben Techniken nicht auch in
anderen Netzwerken anwenden können sollte. Facebook zum Beispiel
veröffentlicht regelmäßig “Erfolgsmeldungen”, wie viele Bots
sie angeblich gelöscht haben. Aber untersucht werden diese Bots
nicht. Der einzige Grund dafür ist, dass Twitter Daten zur Verfügung
stellt, die sich dahingehend überhaupt analysieren lassen. Wenn wir
etwas über Bots auf anderen Plattformen erfahren wollen, müssten
also entweder die Plattformen gezwungen werden, brauchbare Daten zur
Verfügung zu stellen, oder die Untersuchungsmethoden müssen sich
ändern. Im Folgenden soll nun der Einsatz von Bots auf anderen
Plattformen kurz skizziert werden.
Bots auf Facebook
Technisch gesehen ist es schwieriger, Bots auf
Facebook als auf Twitter zu betreiben. Dies liegt zum einen daran,
dass die API restriktiver ist und zum anderen daran, dass es
schwieriger ist, Fake-Accounts für Facebook zu erstellen. Beides ist
aber kein wirkliches Hindernis.
Facebook-Accounts lassen sich nach wie vor
massenhaft im Internet kaufen. Hier ein Screenshot der Seite
https://accsmarket.com/en/catalog/facebook
Übrigens werden viele dieser Fake-Accounts in
Russland registriert. Über die Analyse der IP-Adresse oder auch nur
über kyrillische Buchstaben wird dann häufig auf den russischen
Staat als Urheber geschlossen, obwohl sich Personen aller
Nationalitäten genau solche Fake-Accounts zulegen können.
Warum sollte jemand zwanzig Facebook-Accounts für
einen Dollar kaufen, wenn es keine Möglichkeit gäbe, diese Accounts
automatisch zu steuern?
Zum einen gibt es eine Unzahl von kommerziellen
Anbietern, bei denen man Facebook-Likes kaufen kann.
Social-Fanclick.com behauptet, der führende Anbieter zu sein. 500
deutsche Facebook-Fans kosten hier 79 Euro. Inwieweit diese Likes
dann händisch oder automatisch gesetzt werden, lässt sich nicht
abschätzen.
Es steht aber open source Software zur Verfügung,
um Facebook zu automatisieren. Ein Beispiel ist
FacebookAutolikeProfessional, wofür die Codes frei verfügbar auf
Github stehen
(https://github.com/ZiaUrR3hman/FacebookAutoLikeProfessional).
Der FacebookAutoLiker benutzt den programmierbaren
Browser Selenium, um automatisch Likes zu setzen
(https://github.com/justdvl/facebook-auto-liker/blob/master/fbliker.py).
Wer über Programmierkenntnisse verfügt, kann mit diesen Vorlagen
sehr schnell individuelle Botsoftware generieren. Allerdings geht
Facebook sehr intensiv gegen solche Software vor, so dass eine
ständige Weiterentwicklung notwendig ist.
Facebook selbst gibt an, dass
5% der Monthly Active Users Fake-Accounts sind
(https://transparency.facebook.com/community-standards-enforcement#fake-accounts,
https://about.fb.com/news/2019/05/fake-accounts/).
Fake-Accounts und Bots sind nicht notwendig dasselbe. Die 5%
sind allerdings eine Schätzung (an der es auch viele Zweifel gibt),
wie viele Fake-Accounts auf der Plattform tatsächlich aktiv sind.
Dies schließt die Fake-Accounts aus, die schon bei der Registrierung
blockiert werden. Wir reden also von 125 Millionen Fake-Accounts, die
mindestens einmal im Monat aktiv sind. Angenommen ein Mensch betreibt
im Durchschnitt 100 Fake-Accounts, bedeutet das, dass weltweit jeden
Monat 1,25 Millionen Menschen aktiv damit beschäftigt sind
nicht-authentisches Nutzerverhalten allein auf Facebook zu
generieren. Die Annahme, dass ein großer - wenn auch unbestimmter -
Teil dieser Accounts (teil-)automatisiert agiert, ist daher sehr
plausibel.
Bots auf YouTube
Für ein Forschungsprojekt zu Microtargeting
während der Europawahl hat mein Team YouTube-Bots mit Selenium
programmiert. Die Bots sind jeweils einer deutschen Partei gefolgt
und haben Videos von dieser Partei geliked. Dann haben sie jeden Tag
zwei Stunden lang die Videos geschaut, die ihnen von YouTube
vorgeschlagen wurden (Hegelich/Serrano 2019). Projektziel war es
festzustellen, welchen Einfluss die politische Präferenz auf die
YouTube-Vorschläge hat. Unsere Bots lassen sich ohne Weiteres dafür
verwenden, Views und Likes zu manipulieren oder automatische
Kommentare auf YouTube zu hinterlassen.
Bots auf Instagram
Mein Masterstudent Simon Zettler hat in seiner
Abschlussarbeit Bots auf Instagram untersucht. Dafür programmierte
er selber einen Bot, der andere Bots dazu brachte, ihm zu folgen - so
zusagen ein Honey-Bot. Die Idee war simple und genial: Der Bot hatte
auf seiner Instagram-Seite ein einziges Foto, auf dem buchstäblich
nichts abgebildet war. Gleichzeitig stand in der Profilbeschreibung,
dass es sich um einen Bot handelt. Gesteuert über Selenium folgte
der Bot nun einflussreichen Accounts auf Instagram, nur um sie sofort
wieder zu "entfolgen" und ihnen dann erneut zu folgen.
Dadurch stand der Bot in der Liste der Follower dieser
einflussreichen Accounts immer ziemlich weit oben.
Da es keinen wirklichen Grund gibt, einem solchen
Account zu folgen, ist die Wahrscheinlichkeit sehr hoch, dass die
Accounts die dennoch folgen, Bots sind. Für Deutschland ergab die
Analyse, dass es nur sehr wenige Bots gibt, die auf den Honey-Bot
hereinfallen und gleichzeitig Accounts von deutschen Politikern
folgen. Anders sahen die Ergebnisse allerdings u. a. beim Account des
türkischen Ministerpräsidenten aus. Hier ließ sich ein großes
Bot-Netzwerk identifizieren.
Defizite einer Debatte
Angesichts der Faktenlage ist die jetzige Debatte,
ob es Social Bots überhaupt gibt, extrem absurd. Sie wirkt fast
schon komisch wenn man bedenkt, dass es eine DARPA-Botchallenge gab
(Subrahmanian et al. 2016), in der Teams mit dem Ziel angetreten
sind, möglichst viele echte Nutzer*innen als Follower ihrer Bots zu
gewinnen. Darüber hinaus veröffentlichten Wissenschaftler*innen,
die die Debatte um Social Bots geprägt haben (wie Monsted/Ferrara),
einen Artikel in PlosOne 2017, in dem sie selbst ein großes Social
Bot Netzwerk auf Twitter implementierten, um dann die Verbreitung von
Informationen zu messen (Monsted/Ferrara 2017). Es lohnt sich daher
zu fragen, was da alles schiefgelaufen ist.
Es ist kompliziert
Zunächst einmal ist die wissenschaftliche Analyse
von Social Media ein sehr junges Feld. Kaum beschäftigt man sich
etwas eingehender damit, stellt man fest, dass es ein sehr komplexes
Unterfangen ist. Ein Problem ist, dass real existierende Konzepte,
nie wirklich das zeigen, was man intuitiv erwartet. Redet man
beispielsweise von Nutzer*innen, dann denkt man an einen Menschen.
Aber ein Mensch kann viele Accounts nutzen. Umgekehrt können auch
viele Menschen denselben Account bedienen. Bei Social Bots gilt dies
ebenfalls: Wann ist ein Bot ein Bot? Was bedeutet Social in dem
Kontext? Ich habe zum Beispiel Social Bot damals in Abgrenzung zu dem
Bot-Begriff aus den klassischen Sicherheitsdiskursen benutzt, um
deutlich zu machen, dass es nicht um Bot-Netze geht, die Computer
infizieren. Offenbar verstehen aber andere den Begriff so, dass der
Bot ausgesprochene soziale Kompetenzen aufweisen müsse und ein
SPAM-Bot in den Sozialen Netzwerken etwas völlig anderes wäre.
Schon die Frage der Analyseeinheit ist nicht ganz klar: Suche ich
nach Tweets, die automatisch gepostet wurden, oder definiere ich den
dahinterliegende Account als einen Bot? Außerdem liegt es in der
Natur der Sache, dass Botbetreiber*innen nicht entdeckt werden
wollen. Denn sonst riskieren sie, dass sie gesperrt werden. Jedes
Mal, wenn jemand eine Idee veröffentlicht, wie sich Bots erkennen
lassen, muss man davon ausgehen, dass die Botbetreiber*innen darauf
reagieren. Insofern tun sich selbst die Plattformen schwer, Bots
tatsächlich zu identifizieren. Eine weitere Schwierigkeit besteht
dann, wenn ich die Zuschreibung “Bot” als negative Bestimmung im
Sinne von "abweichend von typisch menschlichem Verhalten"
vornehme. Oft ist dies die einzige Möglichkeit die Daten zu
interpretieren. Dann benutze ich aber eine Theorie, die zum Beispiel
besagt, ein normaler Mensch wird im Durchschnitt nicht mehr als 50
Tweets am Tag abschicken. Wer mehr sendet, ist kein normaler Mensch =
ein Bot. Logisch gesehen greift das zu kurz, weil ein negatives
Urteil (kein normaler Mensch) nicht den positiven Schluss (Bot)
zulässt. Auch bei komplexen Machine-Learning-Modellen tritt dieses
Problem auf. Letztlich müsste man jede Aussage eines solchen Systems
interpretieren als: Basierend auf Mustern, die in den Daten gefunden
wurden, von denen wir behaupten, dass sie Bots enthalten, beträgt
die geschätzte Wahrscheinlichkeit, dass dieser Account ein Bot ist x
Prozent.
Völlig unzureichende Daten
Im Prinzip versucht die Social Media Forschung mit
Datenfragmenten Sachverhalte herauszufinden, die mit den
Originaldaten schnell zu klären wären. An diese Daten kommen
allerdings nur die Teams der Plattformen selbst heran. Das ist zwar
sehr bedauerlich, richtig schädlich ist allerdings der Umgang mit
dieser Situation: Anstatt aufzuzeigen, was wir alles nicht wissen,
reden wir über die Trümmer, die wir zu wissen glauben. Der schon
beschriebene Survivorship Bias schlägt da voll durch.
Ein behäbiges Wissenschaftssystem mit falschen Anreizen
Social Media Analyse funktioniert nur
interdisziplinär. Ein rein computerwissenschaftliches Projekt ist
genauso zum Scheitern verurteilt, wie ein sozialwissenschaftliches
Projekt ohne Expertise aus dem Bereich Informatik. Wo sollen die
Leute herkommen, die diese Forschung vorantreiben? Selbst da, wo es
solche Teams gibt - wie bei uns an der TUM - hat man mit
unglaublichen Widerständen in einem disziplinär ausgerichteten
Wissenschaftssystem zu tun. Der Druck - gerade für Promovierende -
Paper zu publizieren, ist enorm und es ist daher eine rationale
Strategie, den Gutachter*innen bereits bekannt Methoden, auf neue
Themen anzuwenden. Anstatt neue Methoden zu entwickeln, die besser
geeignet wären oder gar eine Grundlagentheorie der Digitalisierung
vorantreiben. Gleichzeitig stehen die Plattformen nicht still,
sondern transformieren sich beinahe täglich. Der alte Slogan von
Facebook: “Move fast and break things!” ist immer noch ein
inoffizielles Paradigma der Plattformökonomie. Es ist schwierig für
die Wissenschaft, da Schritt zu halten.
Schlechte Wissenschaft
Einige Studien - und auch meine möchte ich da
nicht ausnehmen - kommen zu falschen Ergebnissen. Fehler haben sich
eventuell eingeschlichen, etwas Wichtiges wurde übersehen oder
verwendete Methoden überzeugen nicht. Das macht aber noch keine
schlechte Wissenschaft aus. Ein Privileg der Wissenschaft ist es,
dass Irrtümer notwendig sind. Die Aufgabe des wissenschaftlichen
Diskurses wäre, diese Fehler aufzuzeigen und zu korrigieren. Wenn
aber stattdessen Wissenschaft so betrieben wird, dass möglichst
schnell Schlagzeilen entstehen ohne dass es einen echten
wissenschaftlichen Zugewinn gibt, dann ist das höchst problematisch.
Die Probe aufs Exempel ist immer, ob die gestellte Frage noch
ergebnissoffen ist, oder nicht. Schreibe ich einen Artikel, der
thematisiert ob Social Bots einen Einfluss auf eine Wahl hatten, oder
darüber, wie schrecklich groß dieser Einfluss ist, wobei ich das
Ergebnis in der Frage schon vorwegnehme. Versuche ich, etwas Neues
herauszufinden, oder betreibe ich Storytelling? Ein gutes Beispiel
ist die Verwendung des sogenannten Botometer. Die Entwicklung dieses
Machine-Learning-Modells war eine gute Sache und zur damaligen Zeit
ein wissenschaftlicher Fortschritt, der noch dazu auf den zur
Verfügung stehenden Trainingsdaten relativ gut funktionierte.
Anstatt diese Methode aber weiterzuentwickeln und zu aktualisieren,
wurde sie häufig in Kontexten eingesetzt, in denen sie nicht
funktionierte (zum Beispiel auf deutsche Tweets). Die bisherigen
Ausführungen zu Bots sollten zudem deutlich gemacht haben, dass die
Verwendung eines Modells, das seit Jahren nicht aktualisiert wird,
sehr zweifelhaft ist. Solche Probleme sollten in einer
wissenschaftlichen Untersuchung zumindest angesprochen werden und
nicht, der Story zuliebe, verschwiegen werden.
Eine Feuilletondebatte voller Missgunst
Einmal auf dem Niveau eines journalistischen
Diskurses angekommen, ist es auch gerecht, dass Journalisten und
Wissenschaftler, die noch nie einen wissenschaftlichen Artikel zu
Social Media publiziert haben, diese Stories jetzt verreißen. Dabei
gelingt ihnen eine ernstzunehmende Leistung: Sie fangen an, sich die
Ergebnisse der Bot-Untersuchungen genauer anzuschauen und finden
viel, was unstimmig ist. Es ist ein großes Problem bei Big Data
Analysen, dass es sehr aufwendig ist, die in aggregierter Form
vorliegenden Ergebnisse auf ihre Plausibilität zu prüfen. Die
Ergebnisse, die mit dem Botometer oder mit der einfachen Heuristik
"mehr als 50 Tweets am Tag" hervorgebracht werden, sind
nicht plausibel. Die umgedrehte Schlussfolgerung, dann gäbe
es keine Bots und das alles sei eine Art Verschwörung, ist aber
zweifelsohne auch nicht sehr wissenschaftlich. Zentral für die
Falsifizierung der Ergebnisse scheinen derzeit drei Annahmen zu sein,
die ich persönlich nicht überzeugend finde: 1. Verifizierte
Twitter-Accounts sind keine Social Bots. Warum nicht? Twitter erlaubt
die Automatisierung von Accounts. Was ist der wesentliche Unterschied
zwischen einem verifizierten automatisierten Account und einem
nicht-verifizierten? Twitter betreibt mit Tweetdeck sogar eine eigene
Plattform, mit der man 200 Accounts gleichzeitig steuern kann. 2.
SPAM-Bots sind keine Social Bots. Wieso? Wenn ich einen Bot
programmiere, der Werbung für eine Pornoseite macht und dafür den
Hashtag #Merkelmussweg verwendet, dann führt dieser Bot zu einer
Verzerrung des Präferenzsignals. 3. Wenn ich einen Account
anschreibe und bekomme eine Antwort, dann kann es kein Bot sein. Auch
diese Logik überzeugt nicht. Erstens kann ein Account teilweise
automatisiert (als Bot) agieren oder der Botmaster fängt die echten
Nachrichten ab und beantwortet sie.
Die Bot-Debatten-Enttarner gehen mindestens so
unwissenschaftlich vor, wie die Studien, die sie kritisieren. Dabei
wird systematisch alles ausgeblendet, was nicht in ihre vorgefasste
Meinung passt. Noch dazu führen sie die Debatten in einer
unversöhnlichen Angriffsrethorik, die zwar nicht zu einer Klärung
beiträgt, aber den Protagonisten offenbar die Aufmerksamkeit
verschafft, um die es ihnen geht. Man arbeitet mit Zuspitzungen und
Anschuldigungen, sucht sich selektiv seine Statements raus, sucht die
große Bühne, greift junge Gründer*innen und andere auf Twitter an,
um selbst von der Aufregung zu profitieren. Offenbar mit Erfolg, wenn
die führenden Forscher*innen zum Thema KI sich von dieser Debatte
beeindruckt zeigen.
Haben Social Bots einen Effekt auf die politische Debatte?
Bedenkt man, dass man über eine im Prinzip nur
auf Twitter stattfindende Debatte offenbar die Agenda der Enquete
Kommission "Künstliche Intelligenz" beeinflussen kann, ist
man natürlich versucht, die Frage mit ja zu beantworten.
Wirkungsfragen in den Sozialen Netzen sind extrem
schwierig zu beantworten und gleichzeitig extrem wichtig. Man kann
eigentlich keine Aussagen darüber treffen, ob sich ein Effekt, der
sich auf einer Plattform bei einem bestimmten Thema zeigt,
tatsächlich verallgemeinern lässt. Das ist generell ein großes
Problem. Die Wissenschaft ist hier noch ganz am Anfang. Es sind noch
keine Theorien entwickelt worden, die sich mit den klassischen
wissenschaftlichen Methoden überprüfen lassen. Man kann sich der
Frage aber schrittweise nähern.
Hat Social Media überhaupt einen direkten Effekt auf die politische Willensbildung?
Die vermutlich wichtigste Studie hierzu ist ein
Experiment, in dem Facebook nachgewiesen hat, dass sich die
Wahlbeteiligung über Facebook beeinflussen lässt (Bond et al.
2012). 2010, am Tag der Congress-Wahlen, hat Facebook zufällig
ausgewählten Nutzer*innen eine Nachricht eingeblendet, dass die Wahl
ansteht und wie die aktuellen Umfragen sind. Die Nutzer*innen konnten
dann einen “I voted”-Button betätigen, den man danach auf ihrem
Profilbild sah. 60 Millionen Facebooknutzer*innen konnten zudem bis
zu sechs Facebookfreund*innen sehen, die den Button schon betätigt
hatten. Bei Nutzer*innen, die diese Nachricht erhalten hatten, stieg
die Wahrscheinlichkeit (ermittelt über die tatsächlich
stattgefundene Wahlbeteiligung), dass gewählt wurde im Durchschnitt
um 0,39%. Das zweite wichtige Ergebnis ist, dass dieser Effekt durch
den Social Graph diffundierte: Freund*innen von Nutzer*innen, die
schon auf den Button geklickt hatten, beteiligten sich mit einer
leicht höheren Wahrscheinlichkeit. Alle Effekte sind minimal, aber
könnten in der Masse durchaus bedeutend sein. In Bezug auf die
direkte Wirkung von Social Bots auf die politische Willensbildung
lässt sich daher vermuten, dass erstens eine Beeinflussung durchaus
möglich ist; dass zweitens von minimalen Effekten auszugehen ist;
und dass drittens der Effekt verstärkt wird, wenn es den Bots
gelingen würde, echte Freund*innen-Netzwerke zu infiltrieren.
Genau dieses Infiltrieren echter Netzwerke ist in
der wissenschaftlichen Literatur durchaus beschrieben. Wie oben
bereits erwähnt, fand 2015 die DARPA-Bot-Challenge statt.
Zielsetzung dabei war es, möglichst viele echte Follower für
Botnetze auf Twitter zu bekommen (Subrahmanian et al. 2016).
Monsted/Ferrara haben 2017 einen Beitrag veröffentlicht, in dem sie
ein Botnetz auf Twitter aufbauen (also echte Nutzer*innen
infiltrieren) und dann die Effekte auf die Verbreitung von
Informationen messen. Seymor/Tully haben 2016 auf der
Blackhat-Conference ein System vorgestellt, welches völlig
automatisch (mit maschinellem Lernen) Social Bots generiert, die
jeweils einen einzigen Nutzer als Ziel haben (Robo-Spearfishing).
Auch wenn man über alle Ergebnisse vortrefflich wissenschaftlich
streiten kann, ein informierter Blick in die wissenschaftliche
Literatur wird eine ganze Reihe von Beispielen bringen, in denen
nicht nur die Existenz von Social Bots, sondern eben auch die
Infiltrierung echter Nutzer*innen eindeutig belegt ist. Die
beschriebenen Probleme bleiben allerdings bestehen: In einem echten
Anwendungsszenario werden vermutlich eher halb-automatische Systeme
benutzt. Durch den Survivorship-Bias schauen alle auf Twitter und die
wichtigsten Artikel sind nicht notwendigerweise solche, über die in
den Medien oder in der deutschen Twitterblase am meisten berichtet
wird.
Agenda-Setting Effekte
Ich halte es für unstrittig, dass Debatten in den
Sozialen Netzwerken echte politische Debatten beeinflussen. Vor dem
Hintergrund, dass Social Media eine wichtige Informationsquelle für
Journalist*innen und Politiker*innen geworden ist, dass Social Media
selbst Gegenstand der politischen Regulierung ist und dass es eine
starke ökonomische Verschiebung im Journalismus hin zu online gibt,
ist eine Beeinflussung unbestreitbar. Themen, die im Netz wichtig
sind, können auf die politische Agenda kommen. Und die Debatte zu
Social Bots inklusive der aktuellen Anfrage durch die Enquete
Kommission ist ein deutliches Beispiel dafür. Es gibt aber m. W.
noch keine umfassende Theorie oder genügend empirische Studien, die
zeigen, unter welchen Bedingungen dieser Agenda-Setting-Effekt
greift. Man kann also nur die politischen Akteur*innen darauf
hinweisen, dass Aufregung im Netz nicht mit politischer Bedeutung
gleichzusetzen ist. Welchen Effekt könnten Social Bots hierbei
haben? Zum einen können sie eventuell durch schiere Masse Kennzahlen
beeinflussen, aus denen andere Akteur*innen dann eine Bedeutung
ableiten. Zum anderen ist es denkbar - aber es gibt keine mir
bekannten Belege dafür - dass auch ein Netzwerk von Influencern (wie
Journalist*innen oder Politiker*innen) gezielt unterwandert wird, um
eine Art tendenziöse Filterblase zu errichten. Aber ohne empirische
Belege dafür, ist dies eine rein theoretische Annahme.
Einfluss auf die Distributionsalgorithmen
Ein
anderer Effekt ist inzwischen nachgewiesen: Die für die Verteilung
der Inhalte in den Sozialen Netzwerken verantwortlich Algorithmen,
lassen sich durch hyperaktive Nutzer*innen manipulieren. In unserer
Studie (Papakyrikopoulos et al. 2020) zeigen wir, dass Likes und
Comments auf Facebook nicht normalverteilt sind: Einige wenige
Nutzer*innen liken und kommentieren viel mehr als andere und sind
daher hyperaktiv. Die Mehrheit ist gar nicht aktiv, sondern
konsumiert Social Media die meiste Zeit passiv. Von allen Likes und
Kommentaren sind im Durchschnitt ca. 25% von nur 5% der Nutzer*innen
(die überhaupt etwas geliked oder kommentiert haben) erzeugt. Wir
können zeigen, dass die hyperaktiven Nutzer*innen die
Meinungsführerschaft in den Diskussionen erlangen und den Diskurs
damit inhaltlich verschieben. Außerdem können wir nachweisen, dass
die Empfehlungssysteme der Plattformen durch diese Nutzer*innen
überproportional beeinflusst werden. Der wichtigste Aspekt ist aber
der folgende: Wenn in ein bestehendes Netzwerk aus
Facebook-Freund*innen einzelne (!) Accounts eingefügt werden, die
als hyperaktive Nutzer*innen ein bestimmtes Thema pushen, kann damit
der Empfehlungsalgorithmus stark manipuliert werden (das sogenannte
Graph-Poisoning). Auch hier zeigen sich also die zwei schon
beschriebenen Wirkmuster: Social Bots – sofern sie unerkannt
bleiben – können durch schiere Masse die Verbreitung von Inhalten
in Sozialen Netzwerken verzerren. Wenn es zudem gelingt, Netzwerke
von echten Menschen zu infiltrieren, können schon wenige Bots einen
starken Einfluss auf die Algorithmen der sozialen Netzwerke haben.
Auch
in diesem Fall (für den es wiederum keine mir bekannten belegbaren
empirischen Befunde gibt), wäre allerdings immer noch die Frage,
welchen Einfluss Social Media überhaupt hat. Nur weil jemand eine
Nachricht angezeigt bekommt, heißt das ja noch nicht, dass dies zu
einer Meinungsänderung führt.
Was jetzt zu tun ist
Die
Debatte um Social Bots ist zu versachlichen. Politische Akteur*innen
sollten nicht den Aufregungswellen folgen, die in der öffentlichen
Debatte aus unwissenschaftlichen Gründen erzeugt werden. Es gibt
keinerlei belastbare Hinweise, dass Social Bots bislang einen
bedeutenden Effekt auf politische Großereignisse hatten. Es gibt
jedoch genügend Studien, die eindeutig belegen, dass diese Gefahr
durchaus ernst zu nehmen ist.
Ein
großes Problem ist, dass die Wissenschaft nicht über die Mittel
verfügt, diese Fragen in der notwendigen Geschwindigkeit und
Gründlichkeit zu untersuchen. Es fehlt am Zugang zu überprüfbaren
Daten der Sozialen Netzwerke, an Expertise an den Universitäten, um
mit der enorm schnellen technischen Entwicklung mitzuhalten, an
finanzieller Ausstattung, um große Datenananlysen tatsächlich
durchzuführen, an einem Konzept, wie ein Kompromiss zwischen dem
Interesse an der Erforschung solcher Phänomene und dem Datenschutz
der Nutzer*innen gefunden werden kann und vor allem fehlt es an einer
interdisziplinären Wissenschaftskultur.
Gesetze,
die sehr spezifische Teilaspekte der Kommunikation in den Sozialen
Netzen regeln, helfen da vermutlich wenig. Ein Verbot von Social Bots
oder eine Kennzeichnungspflicht müsste ja auch durchsetzbar sein. Da
Social Bots nur ein Instrument sind, würden solche
Regelungen, selbst wenn sie funktionieren, vermutlich nur zu einer
Verlagerung hin zu mehr menschlichen Fake-Accounts führen.
Um
schnelle Verbesserungen zu erreichen, wird man mit den Betreibern der
Sozialen Netzwerke kooperieren müssen. Denn die wichtigsten Hebel
zur Gestaltung eines deliberativen Diskurses liegen vermutlich im
Design der Plattformen und ihrer Alorithmen und entziehen sich
weitestgehend der politischen Regulierung. Die Erfahrungen der
letzten Jahre zeigt allerdings m. M. nach deutlich, dass die großen
Plattformen erst zur Kooperation bereit sind, wenn Regulierungen im
Raum stehen, die zu harten ökonomischen Konsequenzen führen würden.
Die
Politik sollte aber auch erkennen, dass sie nicht bloß als
Regulierer gefragt ist: Der politische Diskurs wird nach wie vor in
erster Linie durch politische Institutionen und Parteien geprägt.
Wenn man feststellt, dass die Sozialen Plattformen für einen
konstruktiven politischen Diskurs ungeeignet sind – immerhin wurden
sie zum Teilen von Katzenvideos und zur Informationsbeschaffung über
Kommiliton*innen entwickelt – und man sie nicht an die Bedürfnisse
einer demokratischen Gesellschaft anpassen kann, warum sollte die
Politik diese mangelhafte Infrastruktur dann benutzen und ihr damit
zu dieser wachsenden gesellschaftlichen Bedeutung verhelfen?
Literatur
Bond,
R., Fariss, C., Jones, J. et
al.
A 61-million-person experiment in social influence and political
mobilization. Nature
489, 295–298 (2012). https://doi.org/10.1038/nature11421
Mønsted,
B., Sapieżyński, P., Ferrara, E., & Lehmann, S. Evidence of
complex contagion of information in social media: An experiment using
Twitter bots. PloS one, 12(9) (2017)
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5609738/
Hegelich,
S. Invasion der Meinungs-Roboter. Konrad-Adenauer-Stiftung
(2016)
Hegelich,
S., & Janetzko, D. Are social bots on Twitter political actors?
Empirical evidence from a Ukrainian social botnet. In Tenth
International AAAI Conference on Web and Social Media (2016)
Hegelich,
S., Shahrezaye, M. Die Disruption der Meinungsbildung: die politische
Debatte in Zeiten von Echokammern und Filterblasen.
Konrad-Adenauer-Stiftung (2017)
Hegelich,
S., Serrano, J.C.M. Microtargeting in Deutschland bei der Europawahl
2019. Medienanstalt NRW.
https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien_Forschung/Studie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2.pdf
(2019)
Papakyriakopoulos,
O., Serrano, J. C. M., & Hegelich, S. Political communication on
social media: A tale of hyperactive users and bias in recommender
systems. Online Social Networks and Media, 15, 100058 (2020)
Ruths,
D., & Pfeffer, J. Social media for large studies of behavior.
Science, 346(6213), 1063-1064 (2014)
Seymour,
J., Tully. P. Weaponizing data science for social engineering:
Automated E2E spear phishing on Twitter. Blackhat Conference (2016)
https://www.blackhat.com/docs/us-16/materials/us-16-Seymour-Tully-Weaponizing-Data-Science-For-Social-Engineering-Automated-E2E-Spear-Phishing-On-Twitter-wp.pdf
Subrahmanian,
V. S., Amos Azaria, Skylar Durst, Vadim Kagan, Aram Galstyan,
Kristina Lerman, Linhong Zhu, Emilio Ferrara, Alessandro Flammini,
and Filippo Menczer. "The
DARPA Twitter bot challenge." Computer 49, no. 6 (2016): 38-46.
Thieltges,
A., & Hegelich, S. Falschinformationen und Manipulation durch
social bots in sozialen Netzwerken. Computational
Social Science, 357 (2018)
Thieltges,
A., Schmidt, F., & Hegelich, S. The devil’s triangle: Ethical
considerations on developing bot detection methods. In
2016 AAAI Spring Symposium Series. (2016)