Direkt zum Hauptbereich

Argumente zu #SocialBots: #OKBoomer, kein Grund zur Aufregung


Die Enquete-Kommission KI des Deutschen Bundestages hat von diversen Expert*innen Stellungnahmen zu Social Bots eingeholt. Hier mein Text.

Erläuterungen zu den Fragen der Enquete Kommission "Künstliche Intelligenz" zum Thema Social Bots

Was sind Social Bots?

Social Bots sind automatisch gesteuerte Accounts in den sozialen Netzwerken, die vorgeben, echte Nutzer*innen zu sein (Hegelich 2016: 2, Hegelich/Sharezaye 2017: 33, Hegelich/Janetzko 2016, Thieltges/Hegelich 2018: 358, Thieltges/Schmidt/Hegelich 2016: 253). Diese Definition klingt einfach, ist aber aus wissenschaftlicher Sicht problematisch (vgl. ebenfalls Hegelich 2016: 2, Hegelich/Sharezaye 2017: 33, Hegelich/Janetzko 2016, Thieltges/Hegelich 2018: 358, Thieltges/Schmidt/Hegelich 2016: 253). Was genau ist ein Soziales Netzwerk? Kann ein öffentliches Diskussionsboard im Netz schon als Netzwerk gelten? Wie sieht es mit Messengerdiensten aus? Was ist ein Account? Reicht es, wenn ein Eintrag in der Nutzerdatenbank des Netzwerks generiert wurde, oder muss dieser Account auch aktiv sein? Ist ein gesperrter Account noch ein Account? Was ist ein*e echte*r Nutzer*in? Muss das eine biologische Person sein und wenn ja, kann einePerson als mehrere Nutzer*innen im selben Netz auftreten und ist sie dann immer noch echt? Oder geht es rein um den Akt der Nutzung des Sozialen Netzwerks (wie die Monthly Active User Metriken nahe legen)? Und schließlich bleiben die zwei entscheidenden Fragen: Wie lässt sich feststellen, dass ein Account vorgibt, ein*e echte*r Nutzer*in zu sein? Und was heißt automatisch gesteuert?
Jede dieser Fragen ist es wert, sich mit ihr zu beschäftigen.
Die Unklarheit, die offenbar in der gegenwärtigen Debatte zu Social Bots herrscht, hat etwas damit zu tun, dass man unterschiedliche Antworten auf diese Fragen geben kann. Auf der anderen Seite ist die Definition, wie sie oben genannt ist, durchaus nachvollziehbar, und spiegelt die empirische Wirklichkeit Sozialer Netzwerken durchaus wieder. Konzentrieren wir uns auf die beiden letztgenannten Fragen: Mit dem Aufkommen der großen Sozialen Netzwerke, insbesondere Facebook, war die Vorstellung verbunden, mit Big Data Analysen könne man nun die öffentliche Meinung unmittelbar erfahren, da die Menschen ihre Präferenzen über die Sozialen Netzwerke kundtun (zur Kritik dieser Vorstellung siehe Ruth/Pfeffer 2014). Wenn nun aber eine solche Äußerung einer angeblichen Präferenz durch ein Programm erfolgt, dann ist dieses Signal verzerrt. Dies ist der simple Kern der Debatte um Social Bots. Automatisierung und Verschleierung gehören also unmittelbar zusammen, weil die Erwartung an ein Soziales Netzwerk ist, dass hier in irgendeiner Weise die unmittelbaren Präferenzen der Nutzer*innen dargestellt werden. Dieser Zusammenhang wird deutlicher, wenn man konkrete Beispiele betrachtet: Die großen Sozialen Netzwerke verfügen allesamt über unterschiedliche Kanäle, um Nutzerpräferenzen abzubilden. Bei Facebook können Nutzer*innen z. B. Inhalte posten, in einem Feed oder in einer Story, andere Inhalte kommentieren, Likes oder weitere Reactions hinterlassen, anderen Nutzern*innen folgen, deren Seite abonieren, einer Gruppe beitreten usw. Wenn ich nun eine Software einsetze, die nach programmierten Regeln eine solche Nutzerpräferenz abgibt, also zum Beispiel systematisch jeden Beitrag auf einer bestimmten Seite liked, dann ist das nach der obigen Definition ein Social Bot. Unter dem entsprechenden Beitrag bei Facebook steht jetzt eine Zahl, die alle Likes zusammenfasst. Es entsteht die Suggestion, dies wäre die Anzahl der Leute, die nach dem lesen des Beitrags Sympathie bekunden wollen. Allerdings habe, ich den Post gar nicht gelesen , sondern mein Programm hat einfach nur diese Reaktion durchgeführt . Ich würde anhand dieses Beispiels sogar noch weiter gehen: Selbst wenn im Nutzerprofil des automatisierten Like-Accounts deutlich angegeben ist, dass es sich um einen Bot handelt, lässt sich argumentieren, dass der Account vorgibt, ein*e echte*r Nutzer*in zu sein. Denn es ist einfach nicht üblich, bei jeder Reaktion in den Sozialen Netzwerken das Profil zu analysieren, von dem sie ausgeht. Bei Facebook würde auf der ersten Ebene einfach nur die Anzahl der Likes gelistet. Erst wenn ich mir das ansehe, kommt eine Liste mit den Accounts, die diese Likes gesetzt haben. Und erst wenn ich diese Liste Eintrag für Eintrag durchgehe, habe ich die Chance, mir ein Bild über die Herkunft der Likes zu machen. Und selbst wenn ich dann diesen Like als Produkt einer Automatisierung erkenne, heißt dies noch lange nicht, dass er wirkungslos bleibt. Denn die Frage, welche Inhalte die Nutzer angezeigt bekommen, ist in den Sozialen Netzwerken selber Produkt einer Automatisierung: Facebook berechnet zum Beispiel für jeden Nutzer ein Ranking aller Posts, die angezeigt werden könnten. Und die Anzahl der schon stattgefundenen Interaktionen mit diesen Posts ist dabei ein wichtiges Kriterium - Facebook nennt das “meaningful interaction”. Nur was massenhaft geteilt, geliked, kommentiert usw. wird, wird in den Sozialen Netzwerken wirklich sichtbar.
Wer daher diese einfach zu automatisierenden Reaktionen per Definition ausschließt und stattdessen behauptet, ein Social Bot müsste - am besten noch eigenständig und mit eigenen Zielen - Texte generieren, hat nicht verstanden, wie Soziale Netzwerke funktionieren oder ist Teil eines rechthaberischen Diskurses, auf den noch gesondert einzugehen ist. Wer von einem Social Bot erwartet, einen Turing-Test zu bestehen, redet nicht mehr über die angesprochene Verzerrung eines Präferenzsignals, sondern letzten Endes über allgemeine künstliche Intelligenz (Artificial General Intelligence (AGI) oder Strong AI). Was nicht heißen soll, dass nicht auch Texte von Bots generiert werden: Allerdings bislang in der Regel so, dass sich der Bot einfach bei einer schon bestehenden Quelle (Internetseite oder RSS-Feed) bedient, oder eine Liste von kurzen Texten abarbeitet und dabei verschiedene Varianten produziert (was gerade bei allgemeinen positiven oder negativen Kommentaren nicht schwierig ist). Es ist davon auszugehen, dass Fortschritte in der Natural-Language-Processing-Subdisziplin der Automatic Text Generation auch die Texte besser machen, die Social Bots “selbst” kreieren.
Dennoch ist die Automatisierung, die der Definition zugrunde liegt, in vielen Fällen in einem Graubereich. Zum einen gibt es Tools, wie das von Twitter selbst betriebene Tweetdeck oder die Software Tapbot, die es den Nutzer*innen ermöglichen, mehrere Accounts zu verwalten, und Tweets erst später abzusenden und somit zumindest das Zeitsignal zu verzerren. Würde man jede diese Aktionen als Social Bot bezeichnen, dann ist schnell jede*r , die*der einen alternativen Client benutzt, ein Bot. Umgekehrt gibt es aber auch echte Nutzer*innen, die sich ganz wie Bots verhalten: Sie folgen einem Skript, dass ihnen vorgibt, welche Beiträge sie unterstützen sollen, wann sie welchen Hashtag verwenden müssen, welche Inhalte wo abgesendet werden usw. und benutzen dafür eben die oben genannten Programme. Ob ein bestimmter Effekt besser mit einem Programm oder mit einer Gruppe von Leuten erreicht werden kann, die sich im Zweifelsfall wie Roboter verhalten, ist häufig eine Kalkulation, welche Mittel zu welchem Preis zur Verfügung stehen. Um diese Verwischung deutlich zu machen, verwenden wir den Begriff der hyperaktiven Nutzer*innen (Papakyriakopoulos et al. 2020). Hier wird die Frage nach dem Ursprung ausgeklammert und stattdessen auf die Wirkung geschaut, die mit solchen Methoden (egal ob menschlich, teil- oder vollständig automatisiert) erreicht werden.

Welche Technologie steckt in Social Bots?

Um einen Bot zu betreiben braucht es nicht viel. Ein Server muss Informationen aus dem entsprechenden Sozialen Netzwerk empfangen, verarbeiten und dann den Status im Sozialen Netzwerk verändern können (also posten, liken, retweeten usw.). Die Kommunikation zwischen Server und Sozialem Netzwerk findet entweder über eine automatische Schnittstelle (API) oder über den “normalen” Internetzugriff statt. Letzteres funktioniert in der Regel nur, wenn ein Browser benutzt wird, der selbst programmierbar ist, wie zum Beispiel "Selenium". Diese beiden unterschiedlichen Wege des Datentransfers zwischen Server und Sozialem Netz sind sehr bedeutend: Wird der Zugang über eine API hergestellt, dann kann das Soziale Netzwerk genau steuern, welche Daten unter welchen Bedingungen abfließen und welche Kommunikationskanäle wie von außen bedient werden können. So sind zum Beispiel Limits von Zugriffen in einem bestimmten Zeitraum üblich. Die Daten über eine API sind strukturiert und müssen nicht den Daten entsprechen, mit denen das Soziale Netzwerk intern arbeitet. Wird ein Bot direkt über den normalen Onlinezugang gesteuert, dann stehen genau die Daten zur Verfügung, die normale Nutzer*innen auch speichern könnten. Umfang und Struktur der Daten sind dann in der Regel nicht identisch mit den API-Daten. Zum Beispiel kann man sich über die Crowdtangle API von Facebook anzeigen lassen, wie oft eine öffentliche Seite geliked wurde. Öffnet man die Seite in einem Browser (oder lässt ein Programm das machen), sieht man auch, wer die Seite geliked hat. Die Programmierung automatisierter Browser ist in der Regel wesentlich schwieriger als die Interaktion mit einer API, zumal die Sozialen Netzwerke versuchen, diese Zugriffe zu erschweren. Durch Fortschritte in der Programmierung automatisierter Browser (zum Beispiel direkt in den Programmiersprachen R oder Python) wird dieser Weg allerdings immer attraktiver. Für die Netzwerke (und die Forscher) ergibt sich damit das Problem, dass Bots, die nicht über die API agieren, sich zunächst nicht von normalen Nutzern*innen unterscheiden. Solche Bots lassen sich nicht an der Datenstruktur erkennen, sondern können - wenn überhaupt - nur durch Muster entdeckt werden, die durch die Automatisierung entstehen und von normalem menschlichen Verhalten abweichen.
Wie “intelligent” ein Bot ist, liegt in erster Linie an der internen Datenverarbeitung. Die Abbildung zeigt die zwei Möglichkeiten als Flowdiagramm.

Der interne Datenverarbeitungsprozess ist von der Kommunikation mit dem Sozialen Netzwerk getrennt. Soll heißen: Wenn der Datenaustausch zwischen Server und Sozialem Netzwerk funktioniert, dann kann im Prinzip jedes KI-Verfahren eingesetzt werden, um den Bot “intelligent” zu machen. Studierende lernen in meinen Seminaren zum Beispiel, mit Deep Learning automatisch neue Tweets im Stil von Trump zu erstellen, passende Emojis automatisch in Texte einzufügen oder automatische Zusammenfassungen von Nachrichtenfeeds zu generieren. Microsoft hat schon vor Jahren mit einem Bot experimentiert, der aus der Kommunikation mit anderen Nutzer*innen lernt, neue Sätze zu generieren (https://en.wikipedia.org/wiki/Tay_(bot)). Dieser Bot wurde gezielt von rechtsradikalen Nutzer*innen getrollt, so dass er dann rassistische Äußerungen von sich gab, die Textgenerierung war aber ziemlich intelligent. Generell wurden in den letzten Jahren große Fortschritte bei Chat-Bots erzielt und technisch spricht nichts dagegen, diese - häufig frei verfügbaren - Ansätze auch auf Bots in den Sozialen Netzwerken zu übertragen. Theoretisch ist es also möglich, einen Social Bot mit der ganzen Wucht moderner Ansätze aus dem Bereich Natural Language Processing auszustatten. Es ist allerdings schwierig, sich ein Szenario vorzustellen, wo das tatsächlich sinnvoll wäre. Welchen Nutzen hätte ein Bot, der unkontrolliert und zufällig Texte von hoher Qualität schreibt? Für die allermeisten Absichten wird man schnellere und bessere Ergebnisse erzielen, wenn der Bot durch einfache Heuristiken gesteuert ist: Man erstellt eine Liste mit Accounts, deren Inhalt der Bot liken oder retweeten soll, verknüpft eine dynamische Quelle mit Inhalten (häufig RSS-Newsfeeds) aus denen der Bot sich bedient, legt vielleicht noch die wichtigsten Hashtags fest, auf die der Bot reagieren soll und gießt das Ganze in einen Zeitplan (eventuell mit indiziertem Zufall, um die Erkennung schwieriger zu machen) oder definiert Ereignisse in den Sozialen Netzwerken, auf die der Bot automatisch reagiert. Das Ergebnis ist dann ein relativ primitiver SPAM-Bot, der für sich genommen sicherlich keinen politischen Diskurs beeinflusst, durch die Verzerrung des Präferenzsignals aber eventuell trotzdem eine Wirkung erzielt.
Für diese Art von Bots stehen gerade für Twitter jede Menge vorgefertigte Tools zur Verfügung. In unserer Datenbank an der TUM haben wir diverse Tweets aus dem politischen Diskurs in Deutschland gesammelt. (Die Daten sind kein repräsentatives Sample und es landet auch viel darin, was eigentlich nicht politisch ist). An drei Beispielen werden im Folgenden drei Automatisierungstools vorgestellt.  Die Twitter-Ids aller Tweets in unserer Datenbank, die von diesen drei beispielhaft ausgewählten Automatisierungstools veröffentlicht wurden, können über folgenden Link abgerufen und dann analysiert werden:
https://drive.google.com/file/d/1ETgiJUSDfpwq3kFoe9CIlzOGu6706cos/view?usp=sharing
Cheapbotsdonequick ist eine Webseite, mit der man einen bestehenden Twitteraccount innerhalb von wenigen Minuten in einen Bot verwandeln kann. Man meldet sich an, gibt Texte ein, die der Bot posten soll und kann Alternativen für einzelne Worte festlegen, wodurch ganz einfach eine große Variation an Inhalten erzeugt werden kann. Dann legt man fest, wie oft der Bot posten soll und den Rest erledigt das Programm. Es fallen keine Kosten an. An der TUM sammeln wir Twittermeldungen, die Schlagworte aus dem politischen Diskurs enthalten und können eine Datenbank mit 1,7 Milliarden Tweets durchsuchen.- Das Sample hat aber einen starken Bias und es landet auch vieles in der Datenbank, was politisch nicht wirklich relevant ist. 2019 hatten wir 63.000 Tweets, die laut Metadaten von Cheapbotsdonequick versendet wurden. Dazu muss man wissen, dass Twitter zu jedem Tweet über die API bis zu 1.400 weitere Informationen zur Verfügung stellt. Dazu gehört die Variable „Source“, die anzeigt, über welche App der Tweet gesendet wurde. Wird hier auf ein Bot-Programm verwiesen, dann ist der entsprechende Tweet garantiert automatisch versendet worden. Als Beispiel ist Cheapbotsdonequick interessant, weil die Plattform hält, was sie verspricht: Ohne irgendwelche Programmierkenntnisse lassen sich in kürzester Zeit Bots generieren. Die Tabelle zeigt ein paar zufällig ausgewählte Texte aus unseren Daten.


Are Nazis cool yet?,arenaziscoolyet,no! Nazis are still not cool
Endless Screaming ⚧ ☭,infinite_scream,@hacks4pancakes AHHHHHHHHHHHHHHHH
Donald Trump Sr.,TrumpIdeasBot,"I've got a great idea, the greatest idea, just the best: legalize hate crimes so cops can focus on what's important: saluting the flag"
"Media, but Social",MediaButSocial,"Ha, still here? We've all moved to https://t.co/BpFzO9NIKE!
Instead of tweets we have touzts!"
taz Klima #FridaysForFuture,tazKlima,"@KoehneAnja Danke für den Tweet! Ich bin ein Roboter. Wenn du mit Menschen sprechen möchtest, wende dich bitte an: https://t.co/nmfXe2xzvo"
Dumb Brags,dumbbrags,"Just so you know, I'm a scarily good Angela Merkel boy toy, which is why I'm so relatable."


Twittbot.net ist eine ausgereiftere Botplattform aus Japan. In unserer Datenbank gab es 2019 260.000 Tweets, die laut Metadaten eindeutig von twittbot.net kommen. Viele Tweets sind auf japanisch, häufig Nachrichten über Deutschland (vermutlich über RSS-Feeds generiert). Die Plattform wurde als Beispiel gewählt, weil es überprüfbar und eindeutig eine reine Botplattform ist, nicht weil sie eine große Bedeutung hat.


Seafoods Lover,Seafoods_Lover,"If #Tweet4Taiji is about animal cruelty, you should focus on livestock. They suffer horribly for years! Dolphins a few minutes. #Tweet4Taiji"
#Japan #ShinzoAbe Govt disregards #pressfreedom


#RSF urges Japan to give back passports to ex-hostage j… https://t.co/uE80Dx4HW9"
宮島正,yasuokajihei,"史上初の人体神経直結の義手を開発 精密な動作と触覚が実現
https://t.co/UyhdyJy14v
fromjpn311,fromjpn311,"#Fukushima #nuclear #disaster #japanesefood #WTO
#HumanRightsViolations


#Japan Abe govt still ignore many problems… https://t.co/HVupSTIJM8"
""#Fukushima ‘under control’? #ShinzoAbe is lying, Japan’s ex-PM says""
about problematic Japan,0123qaz,"#G20 #Japanese #Fascism


The Leader Who Was ‘Trump Before #Trump’
Under Prime Minister #ShinzoAbe, #Japan has taken… https://t.co/CYPn9VrdHh"


IFTTT (if this than that) ist ein allgemeiner Automatisierungsservice. Als Beispiel ist IFTTT interessant, weil sich damit sehr einfach unterschiedliche Plattformen verbinden lassen. Ich nutze den Dienst zum Beispiel selbst, um automatisch Tweets zu generieren, wenn ich einen neuen Artikel auf meinem Blog gepostet habe (mein eigener Twitter-Account ist also regelmäßig ein Social Bot). In unseren Daten finden sich für 2019 878.000 Tweets, die eindeutig über diesen Service erzeugt wurden.


Statement von Kurz am Abend - Auch Bundespräsident spricht https://t.co/ABi8xN5P1j
Merkel heir faces widespread criticism after proposal to regulate online opinion https://t.co/fFRPx9ET5i
"RT BILD_Hamburg ""Rathaus intern - Wie Deutschland die Grünen bange macht https://t.co/jEa7U64xKN #Hamburg #Nachrichten #News"
Tom Gotthen,_unterhaltung,Ursula von der Leyen: Die Soldaten erfuhren mit als Erste vom Rücktritt der Ministerin - WELT https://t.co/7el35jfkGx
April-Zahlen - Arbeitslosigkeit in Eurozone auf tiefstem Stand seit 2008 https://t.co/wATQeml67I
Neueste Wahlumfragen,dawum_de,"#Wahltrend (Min.-Max.) Brandenburg (13.06.19): AfD: 19,6-21%, SPD: 18-21,4%, CDU: 16,3-20%, Linke: 14-19,5%, Grüne:… https://t.co/0FfsM5N8Lv


Was zeigen diese Beispiele? Zunächst einmal ist es absolut unstrittig, dass es eine Vielzahl von Tweets mit politischem Inhalt gibt, die über eine Automatisierungssoftware versendet werden. Die Beispiele zeigen aber auch, dass es kaum vorstellbar ist, dass diese Art von Nachrichten einen unmittelbaren Einfluss auf die politische Willensbildung haben. Allerdings wird auch sehr deutlich, dass eine Analyse von Inhalten in den Sozialen Netzwerken den Kontext mit einbeziehen muss. Häufig werden zum Beispiel Links versendet und ohne die Überprüfung der Seiteninhalte kann nicht gesagt werden, ob Links die mit harmlos erscheinenden Überschriften auf Twitter gepostet werden, nicht zu gezielten Falschinformationen führen. Soziale Netzwerke sind keine in sich geschlossenen Plattformen, sondern eingebettet in ein Ökosystem mit wechselseitiger Verlinkung. Und selbst wenn Informationen völlig harmlos sind, kann das automatisierte Teilen dennoch zu einer problematischen Verzerrung führen: Erstens verändert sich dadurch die Distribution der Informationen. Denn alle Netzwerke setzen Algorithmen ein, die populäre Beiträge (und Themen, Hashtags und Nutzer) noch prominenter machen. Zweitens verzerrt die automatische Verbreitung von Informationen eventuell auch das menschliche Urteil darüber. Ein Tweet, der schon häufig geteilt wurde, erscheint vielleicht als glaubwürdiger. Drittens besteht eine nachgewiesene Strategie von Desinformationskampagnen darin, neue Nachrichtenkanäle aufzubauen, die zunächst völlig seriös berichten und dadurch eine Anhängerschaft aufbauen. Dadurch entstehen die Möglichkeiten, die Berichterstattung entweder leicht zu verzerren oder zu einem späteren Zeitpunkt gezielt Falschinformationen zu senden. In welchem Umfang diese Probleme aber tatsächlich zu berücksichtigen sind, kann eine oberflächliche Betrachtung nicht aufzeigen.
Viel interessanter ist allerdings, was die Beispiele nicht zeigen: Die gewählten Dienste zur Automatisierung sind extrem leicht zu identifizieren, da sie sich in den Metadaten eindeutig zu erkennen geben. Jedes Forschungsteam, dass Zugriff auf die Twitter-API hat, ist in der Lage, an diese Informationen zu kommen. Es gibt jedoch keinerlei Grund anzunehmen, dass dieses so leicht zu identifizierende Sample das Ausmaß der Automatisierung auch nur halbwegs abbildet. Im Gegenteil: Mit der Analyse der Metadaten auf diese Weise können keine Programme identifiziert werden, die über die API das Datenfeld “source” gezielt überschreiben. Ebenso wenig können Bots erkannt werden, die die API gar nicht benutzen, sondern direkt über das Internet mit dem Sozialen Netzwerk agieren. Da die Analyseeinheit hier der einzelne Tweet ist, finden wir auch keine Spuren von Bots, die systematisch Tweets liken.
Selbst auf Twitter bezogen haben wir es also mit einem drastischen “Survivorship Bias” zu tun. Die Bezeichnung kommt daher, dass die Alliierten im 2. Weltkrieg die Flugzeuge, die zurückkamen auf Einschusslöcher untersucht haben und basierend auf diesen Statistiken die Flugzeuge gezielt verstärkt haben. Sie hätten allerdings die Flugzeuge untersuchen müssen, die nicht zurückkamen, sondern abgeschossen wurden. Dasselbe ist hier der Fall: So lange wir nur die Bots analysieren, die leicht zu erkennen sind, haben wir keine brauchbare Information darüber, was Bots in den Sozialen Netzwerken tatsächlich machen oder nicht machen.
Aus politikwissenschaftlicher Sicht ist es zudem nahezu undenkbar, dass nicht längst mächtige staatliche Akteure mit nahezu unbegrenzten Ressourcen austesten, ob man mit Bots nicht tatsächlich etwas bewegen kann. Es ist nicht anzunehmen, dass ein “State-Sponsored-Actor” eine Billigplattform wie Cheapbotsdonequick benutzt. Interessant wäre auch eine offizielle Anfrage des Parlaments an die Regierung, ob deutsche Sicherheitsbehörden über Techniken zur (Teil-)Automatisierung von Social Media Accounts verfügen.
Es ist zudem sehr merkwürdig, dass beim Thema Bots immer über Twitter gesprochen wird, obwohl es keinen technischen Grund gibt, warum man dieselben Techniken nicht auch in anderen Netzwerken anwenden können sollte. Facebook zum Beispiel veröffentlicht regelmäßig “Erfolgsmeldungen”, wie viele Bots sie angeblich gelöscht haben. Aber untersucht werden diese Bots nicht. Der einzige Grund dafür ist, dass Twitter Daten zur Verfügung stellt, die sich dahingehend überhaupt analysieren lassen. Wenn wir etwas über Bots auf anderen Plattformen erfahren wollen, müssten also entweder die Plattformen gezwungen werden, brauchbare Daten zur Verfügung zu stellen, oder die Untersuchungsmethoden müssen sich ändern. Im Folgenden soll nun der Einsatz von Bots auf anderen Plattformen kurz skizziert werden.

Bots auf Facebook

Technisch gesehen ist es schwieriger, Bots auf Facebook als auf Twitter zu betreiben. Dies liegt zum einen daran, dass die API restriktiver ist und zum anderen daran, dass es schwieriger ist, Fake-Accounts für Facebook zu erstellen. Beides ist aber kein wirkliches Hindernis.
Facebook-Accounts lassen sich nach wie vor massenhaft im Internet kaufen. Hier ein Screenshot der Seite https://accsmarket.com/en/catalog/facebook

Übrigens werden viele dieser Fake-Accounts in Russland registriert. Über die Analyse der IP-Adresse oder auch nur über kyrillische Buchstaben wird dann häufig auf den russischen Staat als Urheber geschlossen, obwohl sich Personen aller Nationalitäten genau solche Fake-Accounts zulegen können.
Warum sollte jemand zwanzig Facebook-Accounts für einen Dollar kaufen, wenn es keine Möglichkeit gäbe, diese Accounts automatisch zu steuern?
Zum einen gibt es eine Unzahl von kommerziellen Anbietern, bei denen man Facebook-Likes kaufen kann. Social-Fanclick.com behauptet, der führende Anbieter zu sein. 500 deutsche Facebook-Fans kosten hier 79 Euro. Inwieweit diese Likes dann händisch oder automatisch gesetzt werden, lässt sich nicht abschätzen.
Es steht aber open source Software zur Verfügung, um Facebook zu automatisieren. Ein Beispiel ist FacebookAutolikeProfessional, wofür die Codes frei verfügbar auf Github stehen (https://github.com/ZiaUrR3hman/FacebookAutoLikeProfessional).

Der FacebookAutoLiker benutzt den programmierbaren Browser Selenium, um automatisch Likes zu setzen (https://github.com/justdvl/facebook-auto-liker/blob/master/fbliker.py). Wer über Programmierkenntnisse verfügt, kann mit diesen Vorlagen sehr schnell individuelle Botsoftware generieren. Allerdings geht Facebook sehr intensiv gegen solche Software vor, so dass eine ständige Weiterentwicklung notwendig ist.
Facebook selbst gibt an, dass 5% der Monthly Active Users Fake-Accounts sind (https://transparency.facebook.com/community-standards-enforcement#fake-accounts, https://about.fb.com/news/2019/05/fake-accounts/). Fake-Accounts und Bots sind nicht notwendig dasselbe. Die 5% sind allerdings eine Schätzung (an der es auch viele Zweifel gibt), wie viele Fake-Accounts auf der Plattform tatsächlich aktiv sind. Dies schließt die Fake-Accounts aus, die schon bei der Registrierung blockiert werden. Wir reden also von 125 Millionen Fake-Accounts, die mindestens einmal im Monat aktiv sind. Angenommen ein Mensch betreibt im Durchschnitt 100 Fake-Accounts, bedeutet das, dass weltweit jeden Monat 1,25 Millionen Menschen aktiv damit beschäftigt sind nicht-authentisches Nutzerverhalten allein auf Facebook zu generieren. Die Annahme, dass ein großer - wenn auch unbestimmter - Teil dieser Accounts (teil-)automatisiert agiert, ist daher sehr plausibel.

Bots auf YouTube

Für ein Forschungsprojekt zu Microtargeting während der Europawahl hat mein Team YouTube-Bots mit Selenium programmiert. Die Bots sind jeweils einer deutschen Partei gefolgt und haben Videos von dieser Partei geliked. Dann haben sie jeden Tag zwei Stunden lang die Videos geschaut, die ihnen von YouTube vorgeschlagen wurden (Hegelich/Serrano 2019). Projektziel war es festzustellen, welchen Einfluss die politische Präferenz auf die YouTube-Vorschläge hat. Unsere Bots lassen sich ohne Weiteres dafür verwenden, Views und Likes zu manipulieren oder automatische Kommentare auf YouTube zu hinterlassen.

Bots auf Instagram

Mein Masterstudent Simon Zettler hat in seiner Abschlussarbeit Bots auf Instagram untersucht. Dafür programmierte er selber einen Bot, der andere Bots dazu brachte, ihm zu folgen - so zusagen ein Honey-Bot. Die Idee war simple und genial: Der Bot hatte auf seiner Instagram-Seite ein einziges Foto, auf dem buchstäblich nichts abgebildet war. Gleichzeitig stand in der Profilbeschreibung, dass es sich um einen Bot handelt. Gesteuert über Selenium folgte der Bot nun einflussreichen Accounts auf Instagram, nur um sie sofort wieder zu "entfolgen" und ihnen dann erneut zu folgen. Dadurch stand der Bot in der Liste der Follower dieser einflussreichen Accounts immer ziemlich weit oben.
Da es keinen wirklichen Grund gibt, einem solchen Account zu folgen, ist die Wahrscheinlichkeit sehr hoch, dass die Accounts die dennoch folgen, Bots sind. Für Deutschland ergab die Analyse, dass es nur sehr wenige Bots gibt, die auf den Honey-Bot hereinfallen und gleichzeitig Accounts von deutschen Politikern folgen. Anders sahen die Ergebnisse allerdings u. a. beim Account des türkischen Ministerpräsidenten aus. Hier ließ sich ein großes Bot-Netzwerk identifizieren.

Defizite einer Debatte

Angesichts der Faktenlage ist die jetzige Debatte, ob es Social Bots überhaupt gibt, extrem absurd. Sie wirkt fast schon komisch wenn man bedenkt, dass es eine DARPA-Botchallenge gab (Subrahmanian et al. 2016), in der Teams mit dem Ziel angetreten sind, möglichst viele echte Nutzer*innen als Follower ihrer Bots zu gewinnen. Darüber hinaus veröffentlichten Wissenschaftler*innen, die die Debatte um Social Bots geprägt haben (wie Monsted/Ferrara), einen Artikel in PlosOne 2017, in dem sie selbst ein großes Social Bot Netzwerk auf Twitter implementierten, um dann die Verbreitung von Informationen zu messen (Monsted/Ferrara 2017). Es lohnt sich daher zu fragen, was da alles schiefgelaufen ist.

Es ist kompliziert

Zunächst einmal ist die wissenschaftliche Analyse von Social Media ein sehr junges Feld. Kaum beschäftigt man sich etwas eingehender damit, stellt man fest, dass es ein sehr komplexes Unterfangen ist. Ein Problem ist, dass real existierende Konzepte, nie wirklich das zeigen, was man intuitiv erwartet. Redet man beispielsweise von Nutzer*innen, dann denkt man an einen Menschen. Aber ein Mensch kann viele Accounts nutzen. Umgekehrt können auch viele Menschen denselben Account bedienen. Bei Social Bots gilt dies ebenfalls: Wann ist ein Bot ein Bot? Was bedeutet Social in dem Kontext? Ich habe zum Beispiel Social Bot damals in Abgrenzung zu dem Bot-Begriff aus den klassischen Sicherheitsdiskursen benutzt, um deutlich zu machen, dass es nicht um Bot-Netze geht, die Computer infizieren. Offenbar verstehen aber andere den Begriff so, dass der Bot ausgesprochene soziale Kompetenzen aufweisen müsse und ein SPAM-Bot in den Sozialen Netzwerken etwas völlig anderes wäre. Schon die Frage der Analyseeinheit ist nicht ganz klar: Suche ich nach Tweets, die automatisch gepostet wurden, oder definiere ich den dahinterliegende Account als einen Bot? Außerdem liegt es in der Natur der Sache, dass Botbetreiber*innen nicht entdeckt werden wollen. Denn sonst riskieren sie, dass sie gesperrt werden. Jedes Mal, wenn jemand eine Idee veröffentlicht, wie sich Bots erkennen lassen, muss man davon ausgehen, dass die Botbetreiber*innen darauf reagieren. Insofern tun sich selbst die Plattformen schwer, Bots tatsächlich zu identifizieren. Eine weitere Schwierigkeit besteht dann, wenn ich die Zuschreibung “Bot” als negative Bestimmung im Sinne von "abweichend von typisch menschlichem Verhalten" vornehme. Oft ist dies die einzige Möglichkeit die Daten zu interpretieren. Dann benutze ich aber eine Theorie, die zum Beispiel besagt, ein normaler Mensch wird im Durchschnitt nicht mehr als 50 Tweets am Tag abschicken. Wer mehr sendet, ist kein normaler Mensch = ein Bot. Logisch gesehen greift das zu kurz, weil ein negatives Urteil (kein normaler Mensch) nicht den positiven Schluss (Bot) zulässt. Auch bei komplexen Machine-Learning-Modellen tritt dieses Problem auf. Letztlich müsste man jede Aussage eines solchen Systems interpretieren als: Basierend auf Mustern, die in den Daten gefunden wurden, von denen wir behaupten, dass sie Bots enthalten, beträgt die geschätzte Wahrscheinlichkeit, dass dieser Account ein Bot ist x Prozent.

Völlig unzureichende Daten

Im Prinzip versucht die Social Media Forschung mit Datenfragmenten Sachverhalte herauszufinden, die mit den Originaldaten schnell zu klären wären. An diese Daten kommen allerdings nur die Teams der Plattformen selbst heran. Das ist zwar sehr bedauerlich, richtig schädlich ist allerdings der Umgang mit dieser Situation: Anstatt aufzuzeigen, was wir alles nicht wissen, reden wir über die Trümmer, die wir zu wissen glauben. Der schon beschriebene Survivorship Bias schlägt da voll durch.

Ein behäbiges Wissenschaftssystem mit falschen Anreizen

Social Media Analyse funktioniert nur interdisziplinär. Ein rein computerwissenschaftliches Projekt ist genauso zum Scheitern verurteilt, wie ein sozialwissenschaftliches Projekt ohne Expertise aus dem Bereich Informatik. Wo sollen die Leute herkommen, die diese Forschung vorantreiben? Selbst da, wo es solche Teams gibt - wie bei uns an der TUM - hat man mit unglaublichen Widerständen in einem disziplinär ausgerichteten Wissenschaftssystem zu tun. Der Druck - gerade für Promovierende - Paper zu publizieren, ist enorm und es ist daher eine rationale Strategie, den Gutachter*innen bereits bekannt Methoden, auf neue Themen anzuwenden. Anstatt neue Methoden zu entwickeln, die besser geeignet wären oder gar eine Grundlagentheorie der Digitalisierung vorantreiben. Gleichzeitig stehen die Plattformen nicht still, sondern transformieren sich beinahe täglich. Der alte Slogan von Facebook: “Move fast and break things!” ist immer noch ein inoffizielles Paradigma der Plattformökonomie. Es ist schwierig für die Wissenschaft, da Schritt zu halten.

Schlechte Wissenschaft

Einige Studien - und auch meine möchte ich da nicht ausnehmen - kommen zu falschen Ergebnissen. Fehler haben sich eventuell eingeschlichen, etwas Wichtiges wurde übersehen oder verwendete Methoden überzeugen nicht. Das macht aber noch keine schlechte Wissenschaft aus. Ein Privileg der Wissenschaft ist es, dass Irrtümer notwendig sind. Die Aufgabe des wissenschaftlichen Diskurses wäre, diese Fehler aufzuzeigen und zu korrigieren. Wenn aber stattdessen Wissenschaft so betrieben wird, dass möglichst schnell Schlagzeilen entstehen ohne dass es einen echten wissenschaftlichen Zugewinn gibt, dann ist das höchst problematisch. Die Probe aufs Exempel ist immer, ob die gestellte Frage noch ergebnissoffen ist, oder nicht. Schreibe ich einen Artikel, der thematisiert ob Social Bots einen Einfluss auf eine Wahl hatten, oder darüber, wie schrecklich groß dieser Einfluss ist, wobei ich das Ergebnis in der Frage schon vorwegnehme. Versuche ich, etwas Neues herauszufinden, oder betreibe ich Storytelling? Ein gutes Beispiel ist die Verwendung des sogenannten Botometer. Die Entwicklung dieses Machine-Learning-Modells war eine gute Sache und zur damaligen Zeit ein wissenschaftlicher Fortschritt, der noch dazu auf den zur Verfügung stehenden Trainingsdaten relativ gut funktionierte. Anstatt diese Methode aber weiterzuentwickeln und zu aktualisieren, wurde sie häufig in Kontexten eingesetzt, in denen sie nicht funktionierte (zum Beispiel auf deutsche Tweets). Die bisherigen Ausführungen zu Bots sollten zudem deutlich gemacht haben, dass die Verwendung eines Modells, das seit Jahren nicht aktualisiert wird, sehr zweifelhaft ist. Solche Probleme sollten in einer wissenschaftlichen Untersuchung zumindest angesprochen werden und nicht, der Story zuliebe, verschwiegen werden.

Eine Feuilletondebatte voller Missgunst

Einmal auf dem Niveau eines journalistischen Diskurses angekommen, ist es auch gerecht, dass Journalisten und Wissenschaftler, die noch nie einen wissenschaftlichen Artikel zu Social Media publiziert haben, diese Stories jetzt verreißen. Dabei gelingt ihnen eine ernstzunehmende Leistung: Sie fangen an, sich die Ergebnisse der Bot-Untersuchungen genauer anzuschauen und finden viel, was unstimmig ist. Es ist ein großes Problem bei Big Data Analysen, dass es sehr aufwendig ist, die in aggregierter Form vorliegenden Ergebnisse auf ihre Plausibilität zu prüfen. Die Ergebnisse, die mit dem Botometer oder mit der einfachen Heuristik "mehr als 50 Tweets am Tag" hervorgebracht werden, sind nicht plausibel. Die umgedrehte Schlussfolgerung, dann gäbe es keine Bots und das alles sei eine Art Verschwörung, ist aber zweifelsohne auch nicht sehr wissenschaftlich. Zentral für die Falsifizierung der Ergebnisse scheinen derzeit drei Annahmen zu sein, die ich persönlich nicht überzeugend finde: 1. Verifizierte Twitter-Accounts sind keine Social Bots. Warum nicht? Twitter erlaubt die Automatisierung von Accounts. Was ist der wesentliche Unterschied zwischen einem verifizierten automatisierten Account und einem nicht-verifizierten? Twitter betreibt mit Tweetdeck sogar eine eigene Plattform, mit der man 200 Accounts gleichzeitig steuern kann. 2. SPAM-Bots sind keine Social Bots. Wieso? Wenn ich einen Bot programmiere, der Werbung für eine Pornoseite macht und dafür den Hashtag #Merkelmussweg verwendet, dann führt dieser Bot zu einer Verzerrung des Präferenzsignals. 3. Wenn ich einen Account anschreibe und bekomme eine Antwort, dann kann es kein Bot sein. Auch diese Logik überzeugt nicht. Erstens kann ein Account teilweise automatisiert (als Bot) agieren oder der Botmaster fängt die echten Nachrichten ab und beantwortet sie.
Die Bot-Debatten-Enttarner gehen mindestens so unwissenschaftlich vor, wie die Studien, die sie kritisieren. Dabei wird systematisch alles ausgeblendet, was nicht in ihre vorgefasste Meinung passt. Noch dazu führen sie die Debatten in einer unversöhnlichen Angriffsrethorik, die zwar nicht zu einer Klärung beiträgt, aber den Protagonisten offenbar die Aufmerksamkeit verschafft, um die es ihnen geht. Man arbeitet mit Zuspitzungen und Anschuldigungen, sucht sich selektiv seine Statements raus, sucht die große Bühne, greift junge Gründer*innen und andere auf Twitter an, um selbst von der Aufregung zu profitieren. Offenbar mit Erfolg, wenn die führenden Forscher*innen zum Thema KI sich von dieser Debatte beeindruckt zeigen.

Haben Social Bots einen Effekt auf die politische Debatte?

Bedenkt man, dass man über eine im Prinzip nur auf Twitter stattfindende Debatte offenbar die Agenda der Enquete Kommission "Künstliche Intelligenz" beeinflussen kann, ist man natürlich versucht, die Frage mit ja zu beantworten.
Wirkungsfragen in den Sozialen Netzen sind extrem schwierig zu beantworten und gleichzeitig extrem wichtig. Man kann eigentlich keine Aussagen darüber treffen, ob sich ein Effekt, der sich auf einer Plattform bei einem bestimmten Thema zeigt, tatsächlich verallgemeinern lässt. Das ist generell ein großes Problem. Die Wissenschaft ist hier noch ganz am Anfang. Es sind noch keine Theorien entwickelt worden, die sich mit den klassischen wissenschaftlichen Methoden überprüfen lassen. Man kann sich der Frage aber schrittweise nähern.

Hat Social Media überhaupt einen direkten Effekt auf die politische Willensbildung?

Die vermutlich wichtigste Studie hierzu ist ein Experiment, in dem Facebook nachgewiesen hat, dass sich die Wahlbeteiligung über Facebook beeinflussen lässt (Bond et al. 2012). 2010, am Tag der Congress-Wahlen, hat Facebook zufällig ausgewählten Nutzer*innen eine Nachricht eingeblendet, dass die Wahl ansteht und wie die aktuellen Umfragen sind. Die Nutzer*innen konnten dann einen “I voted”-Button betätigen, den man danach auf ihrem Profilbild sah. 60 Millionen Facebooknutzer*innen konnten zudem bis zu sechs Facebookfreund*innen sehen, die den Button schon betätigt hatten. Bei Nutzer*innen, die diese Nachricht erhalten hatten, stieg die Wahrscheinlichkeit (ermittelt über die tatsächlich stattgefundene Wahlbeteiligung), dass gewählt wurde im Durchschnitt um 0,39%. Das zweite wichtige Ergebnis ist, dass dieser Effekt durch den Social Graph diffundierte: Freund*innen von Nutzer*innen, die schon auf den Button geklickt hatten, beteiligten sich mit einer leicht höheren Wahrscheinlichkeit. Alle Effekte sind minimal, aber könnten in der Masse durchaus bedeutend sein. In Bezug auf die direkte Wirkung von Social Bots auf die politische Willensbildung lässt sich daher vermuten, dass erstens eine Beeinflussung durchaus möglich ist; dass zweitens von minimalen Effekten auszugehen ist; und dass drittens der Effekt verstärkt wird, wenn es den Bots gelingen würde, echte Freund*innen-Netzwerke zu infiltrieren.
Genau dieses Infiltrieren echter Netzwerke ist in der wissenschaftlichen Literatur durchaus beschrieben. Wie oben bereits erwähnt, fand 2015 die DARPA-Bot-Challenge statt. Zielsetzung dabei war es, möglichst viele echte Follower für Botnetze auf Twitter zu bekommen (Subrahmanian et al. 2016). Monsted/Ferrara haben 2017 einen Beitrag veröffentlicht, in dem sie ein Botnetz auf Twitter aufbauen (also echte Nutzer*innen infiltrieren) und dann die Effekte auf die Verbreitung von Informationen messen. Seymor/Tully haben 2016 auf der Blackhat-Conference ein System vorgestellt, welches völlig automatisch (mit maschinellem Lernen) Social Bots generiert, die jeweils einen einzigen Nutzer als Ziel haben (Robo-Spearfishing). Auch wenn man über alle Ergebnisse vortrefflich wissenschaftlich streiten kann, ein informierter Blick in die wissenschaftliche Literatur wird eine ganze Reihe von Beispielen bringen, in denen nicht nur die Existenz von Social Bots, sondern eben auch die Infiltrierung echter Nutzer*innen eindeutig belegt ist. Die beschriebenen Probleme bleiben allerdings bestehen: In einem echten Anwendungsszenario werden vermutlich eher halb-automatische Systeme benutzt. Durch den Survivorship-Bias schauen alle auf Twitter und die wichtigsten Artikel sind nicht notwendigerweise solche, über die in den Medien oder in der deutschen Twitterblase am meisten berichtet wird.

Agenda-Setting Effekte

Ich halte es für unstrittig, dass Debatten in den Sozialen Netzwerken echte politische Debatten beeinflussen. Vor dem Hintergrund, dass Social Media eine wichtige Informationsquelle für Journalist*innen und Politiker*innen geworden ist, dass Social Media selbst Gegenstand der politischen Regulierung ist und dass es eine starke ökonomische Verschiebung im Journalismus hin zu online gibt, ist eine Beeinflussung unbestreitbar. Themen, die im Netz wichtig sind, können auf die politische Agenda kommen. Und die Debatte zu Social Bots inklusive der aktuellen Anfrage durch die Enquete Kommission ist ein deutliches Beispiel dafür. Es gibt aber m. W. noch keine umfassende Theorie oder genügend empirische Studien, die zeigen, unter welchen Bedingungen dieser Agenda-Setting-Effekt greift. Man kann also nur die politischen Akteur*innen darauf hinweisen, dass Aufregung im Netz nicht mit politischer Bedeutung gleichzusetzen ist. Welchen Effekt könnten Social Bots hierbei haben? Zum einen können sie eventuell durch schiere Masse Kennzahlen beeinflussen, aus denen andere Akteur*innen dann eine Bedeutung ableiten. Zum anderen ist es denkbar - aber es gibt keine mir bekannten Belege dafür - dass auch ein Netzwerk von Influencern (wie Journalist*innen oder Politiker*innen) gezielt unterwandert wird, um eine Art tendenziöse Filterblase zu errichten. Aber ohne empirische Belege dafür, ist dies eine rein theoretische Annahme.

Einfluss auf die Distributionsalgorithmen

Ein anderer Effekt ist inzwischen nachgewiesen: Die für die Verteilung der Inhalte in den Sozialen Netzwerken verantwortlich Algorithmen, lassen sich durch hyperaktive Nutzer*innen manipulieren. In unserer Studie (Papakyrikopoulos et al. 2020) zeigen wir, dass Likes und Comments auf Facebook nicht normalverteilt sind: Einige wenige Nutzer*innen liken und kommentieren viel mehr als andere und sind daher hyperaktiv. Die Mehrheit ist gar nicht aktiv, sondern konsumiert Social Media die meiste Zeit passiv. Von allen Likes und Kommentaren sind im Durchschnitt ca. 25% von nur 5% der Nutzer*innen (die überhaupt etwas geliked oder kommentiert haben) erzeugt. Wir können zeigen, dass die hyperaktiven Nutzer*innen die Meinungsführerschaft in den Diskussionen erlangen und den Diskurs damit inhaltlich verschieben. Außerdem können wir nachweisen, dass die Empfehlungssysteme der Plattformen durch diese Nutzer*innen überproportional beeinflusst werden. Der wichtigste Aspekt ist aber der folgende: Wenn in ein bestehendes Netzwerk aus Facebook-Freund*innen einzelne (!) Accounts eingefügt werden, die als hyperaktive Nutzer*innen ein bestimmtes Thema pushen, kann damit der Empfehlungsalgorithmus stark manipuliert werden (das sogenannte Graph-Poisoning). Auch hier zeigen sich also die zwei schon beschriebenen Wirkmuster: Social Bots – sofern sie unerkannt bleiben – können durch schiere Masse die Verbreitung von Inhalten in Sozialen Netzwerken verzerren. Wenn es zudem gelingt, Netzwerke von echten Menschen zu infiltrieren, können schon wenige Bots einen starken Einfluss auf die Algorithmen der sozialen Netzwerke haben.
Auch in diesem Fall (für den es wiederum keine mir bekannten belegbaren empirischen Befunde gibt), wäre allerdings immer noch die Frage, welchen Einfluss Social Media überhaupt hat. Nur weil jemand eine Nachricht angezeigt bekommt, heißt das ja noch nicht, dass dies zu einer Meinungsänderung führt.

Was jetzt zu tun ist

Die Debatte um Social Bots ist zu versachlichen. Politische Akteur*innen sollten nicht den Aufregungswellen folgen, die in der öffentlichen Debatte aus unwissenschaftlichen Gründen erzeugt werden. Es gibt keinerlei belastbare Hinweise, dass Social Bots bislang einen bedeutenden Effekt auf politische Großereignisse hatten. Es gibt jedoch genügend Studien, die eindeutig belegen, dass diese Gefahr durchaus ernst zu nehmen ist.
Ein großes Problem ist, dass die Wissenschaft nicht über die Mittel verfügt, diese Fragen in der notwendigen Geschwindigkeit und Gründlichkeit zu untersuchen. Es fehlt am Zugang zu überprüfbaren Daten der Sozialen Netzwerke, an Expertise an den Universitäten, um mit der enorm schnellen technischen Entwicklung mitzuhalten, an finanzieller Ausstattung, um große Datenananlysen tatsächlich durchzuführen, an einem Konzept, wie ein Kompromiss zwischen dem Interesse an der Erforschung solcher Phänomene und dem Datenschutz der Nutzer*innen gefunden werden kann und vor allem fehlt es an einer interdisziplinären Wissenschaftskultur.
Gesetze, die sehr spezifische Teilaspekte der Kommunikation in den Sozialen Netzen regeln, helfen da vermutlich wenig. Ein Verbot von Social Bots oder eine Kennzeichnungspflicht müsste ja auch durchsetzbar sein. Da Social Bots nur ein Instrument sind, würden solche Regelungen, selbst wenn sie funktionieren, vermutlich nur zu einer Verlagerung hin zu mehr menschlichen Fake-Accounts führen.
Um schnelle Verbesserungen zu erreichen, wird man mit den Betreibern der Sozialen Netzwerke kooperieren müssen. Denn die wichtigsten Hebel zur Gestaltung eines deliberativen Diskurses liegen vermutlich im Design der Plattformen und ihrer Alorithmen und entziehen sich weitestgehend der politischen Regulierung. Die Erfahrungen der letzten Jahre zeigt allerdings m. M. nach deutlich, dass die großen Plattformen erst zur Kooperation bereit sind, wenn Regulierungen im Raum stehen, die zu harten ökonomischen Konsequenzen führen würden.
Die Politik sollte aber auch erkennen, dass sie nicht bloß als Regulierer gefragt ist: Der politische Diskurs wird nach wie vor in erster Linie durch politische Institutionen und Parteien geprägt. Wenn man feststellt, dass die Sozialen Plattformen für einen konstruktiven politischen Diskurs ungeeignet sind – immerhin wurden sie zum Teilen von Katzenvideos und zur Informationsbeschaffung über Kommiliton*innen entwickelt – und man sie nicht an die Bedürfnisse einer demokratischen Gesellschaft anpassen kann, warum sollte die Politik diese mangelhafte Infrastruktur dann benutzen und ihr damit zu dieser wachsenden gesellschaftlichen Bedeutung verhelfen?

Literatur

Bond, R., Fariss, C., Jones, J. et al. A 61-million-person experiment in social influence and political mobilization. Nature 489, 295–298 (2012). https://doi.org/10.1038/nature11421

Mønsted, B., Sapieżyński, P., Ferrara, E., & Lehmann, S. Evidence of complex contagion of information in social media: An experiment using Twitter bots. PloS one, 12(9) (2017) https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5609738/

Hegelich, S. Invasion der Meinungs-Roboter. Konrad-Adenauer-Stiftung (2016)

Hegelich, S., & Janetzko, D. Are social bots on Twitter political actors? Empirical evidence from a Ukrainian social botnet. In Tenth International AAAI Conference on Web and Social Media (2016)

Hegelich, S., Shahrezaye, M. Die Disruption der Meinungsbildung: die politische Debatte in Zeiten von Echokammern und Filterblasen. Konrad-Adenauer-Stiftung (2017)

Hegelich, S., Serrano, J.C.M. Microtargeting in Deutschland bei der Europawahl 2019. Medienanstalt NRW. https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien_Forschung/Studie_Microtargeting_DeutschlandEuropawahl2019_Hegelich_web2.pdf (2019)

Papakyriakopoulos, O., Serrano, J. C. M., & Hegelich, S. Political communication on social media: A tale of hyperactive users and bias in recommender systems. Online Social Networks and Media, 15, 100058 (2020)

Ruths, D., & Pfeffer, J. Social media for large studies of behavior. Science, 346(6213), 1063-1064 (2014)

Seymour, J., Tully. P. Weaponizing data science for social engineering: Automated E2E spear phishing on Twitter. Blackhat Conference (2016) https://www.blackhat.com/docs/us-16/materials/us-16-Seymour-Tully-Weaponizing-Data-Science-For-Social-Engineering-Automated-E2E-Spear-Phishing-On-Twitter-wp.pdf

Subrahmanian, V. S., Amos Azaria, Skylar Durst, Vadim Kagan, Aram Galstyan, Kristina Lerman, Linhong Zhu, Emilio Ferrara, Alessandro Flammini, and Filippo Menczer. "The DARPA Twitter bot challenge." Computer 49, no. 6 (2016): 38-46.

Thieltges, A., & Hegelich, S. Falschinformationen und Manipulation durch social bots in sozialen Netzwerken. Computational Social Science, 357 (2018)

Thieltges, A., Schmidt, F., & Hegelich, S. The devil’s triangle: Ethical considerations on developing bot detection methods. In 2016 AAAI Spring Symposium Series. (2016)

Beliebte Posts aus diesem Blog

Kritik an dem Science-Artikel der Priesemann-Gruppe „Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions“

Der Science-Artikel von Dehning et al. (2020) gilt als Beleg für die Effektivität der Corona-Maßnahmen in Deutschland im März 2020. Wir glauben, dass der Artikel gravierende Fehler enthält und daher nichts darüber aussagt, ob insbesondere das Kontaktverbot vom 23.03.2020, irgendeinen Effekt hatte. Unsere Kritik haben wir bei Science eingereicht und sie ist hier zu finden: https://science.sciencemag.org/content/369/6500/eabb9789/tab-e-letters Im folgenden übersetze ich unseren Beitrag und gehe anschließend auf die Frage ein, wie Wissenschaft unter COVID-19-Bedingungen funktioniert und was daran bedenklich ist. Eine Kritik an ‘Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions’ Wir haben den Artikel ‘Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions’ analysiert und dabei gravierende Unstimmigkeiten im Design der Studie festgestellt: Anstatt das Datum der Wendepunkte (wann sich die COVID-19-Entwicklung i

Was man an der COVID-Politik über Faschismus lernen kann

Kritiker der Corona-Politik führen immer häufiger den Begriff Faschismus im Munde, um die politischen Maßnahmen zu beschreiben. Einerseits ist damit natürlich eine polemische Ablehnung verbunden: Wer will schon für Faschismus sein? Generell ist der moralische Vorwurf, etwas sei faschistisch oder faschistoid in der demokratischen Auseinandersetzung durchaus geläufig. Dabei wird jedoch meist auf etwas verwiesen, was zum demokratischen Staat dazu gehört und gerade keinen Faschismus begründet: Die Polizei, die das Gewaltmonopol durchsetzt, ist keine faschistische Organisation, ein Parlament, welches Bürgerrechte einschränkt, ist kein Beleg für die faschistische Aufhebung des Rechtsstaats und ein Medienartikel, der dazu aufruft, Bürger sollen Straftäter anzeigen, ist keine faschistische Propaganda, usw. All dies sind Beispiele für das Leben in demokratischen Gemeinwesen. Anstatt die Demokratie also immer gleich auf dem Weg in den Faschismus zu wähnen, wäre es angebracht, sich zu fragen, war

Der Nutzerismus: Eine Ideologie mit totalitärem Potential

Ich glaube, dass wir derzeit den Aufstieg einer Ideologie erleben, die ich Nutzerismus nennen möchte. Hannah Arendt hat darauf hingewiesen, dass jede Ideologie zu einem totalitaristischen Regime führen kann und es gibt ernste Anzeichen, dass dies auch für den Nutzerismus gilt.  Was ist der Nutzerismus? Wie bei jeder Ideologie ist der Kerngedanke sehr einfach: Im Prinzip gibt es für alle gesellschaftlichen Probleme eine technische Lösung. Leider wenden die Menschen die richtigen Technologien nicht an. Sie nehmen ihre Rolle als Nutzer nicht wahr. Es geht dem Nutzerismus also um das Zusammenspiel von Mensch und Technik, allerdings immer wieder aus der gleichen Perspektive. Die Technik kommt vor als potentielle Lösung eines gesellschaftlichen Problems. Eventuell fehlt die perfekte Lösung noch, aber das ist dann als Auftrag an die Wissenschaft und die Ingenieure zu verstehen. Dieser Technikglaube hat etwas sehr Naives. Er abstrahiert zum Beispiel von allen Interessen, für die Technologien