| Wissenschaft & Forschung

Fakten oder Fakes? Social Bots, Fake News und Social Media

Fakten oder Fakes? Social Bots, Fake News und Social Media

Social Bots, Fake News und Desinformationen als Schattenseite der öffentlichen Meinungsäußerung werden in Medien, Politik und gesellschaftlichem Diskurs stark thematisiert. Das Gefühl, dass soziale Netzwerke für Manipulation und Propaganda genutzt werden, überschattet zunehmend ihre positiven Aspekte. Im Interview sprechen Prof. Heike Trautmann und Dr. Christian Grimme von der Westfälischen Wilhelms-Universität Münster über ihre jüngsten Forschungen zum Thema.

Dr. Grimme, wenn Manipulation und Desinformation über Social-Media-Plattformen verbreitet werden, sollten wir dann aufhören, Social Media zu nutzen?

Christian Grimme: Nein, Social Media sind oft sehr nützlich im persönlichen und beruflichen Gebrauch. Wir nutzen sie, um mit Freunden und Mitarbeitern in Kontakt zu bleiben, um sich über diese Kanäle auszutauschen und zusammenzuarbeiten. Auf diese Weise verbinden Social Media Menschen über weite Entfernungen und sorgen für eine effiziente Zusammenarbeit. Sie ermöglichen es jedem Menschen, an mehr oder weniger freien politischen Diskussionen teilzunehmen. Auch aus Sicht eines professionellen Kundenservices sind sie wichtig – man denke nur an die Interaktion zwischen Kunde und Unternehmen. Die überwältigende Anzahl von Nutzern und die vollständige Integration in unser Leben zeigen, dass Social Media für den Menschen von enormem Nutzen sind.

Oft hören wir aber über die sozialen Medien, dass es Social Bots, gefälschte Nachrichten, Fehlinformationen und sogar Propaganda gibt. Alles scheint sich zum Schlechten zu verändern.

Christian Grimme: Ja, es mag so aussehen. Aber denken Sie an die Möglichkeiten, die sie Menschen eröffnen, die kein Recht auf freie Meinungsäußerung haben. Für sie sind  die sozialen Medien ein wertvoller Kanal, um ihre humanitäre Situation oder ihre politische Meinung darzustellen. Nur, weil jeder teilnehmen kann – auch diejenigen, deren Meinung wir nicht teilen –, sind Social Media nicht prinzipiell schlecht. Nur der Missbrauch des technologischen Backends, zum Beispiel durch den Einsatz von Social Bots, ist etwas, dessen wir uns bewusst sein sollten und das wir möglicherweise bekämpfen müssen.

Prof. Trautmann, können Sie kurz definieren, was ein Social Bot ist und was er tut?

Heike Trautmann: Der Begriff „Social Bot“ wurde bisher nicht gut definiert. Wir haben jedoch vor einiger Zeit in einem Artikel versucht, eine Definition zu geben: Wir betrachten einen Social Bot als einen Agenten oder ein Programm, das mit Teilnehmern sozialer Netzwerke interagieren kann. Es ist im Grunde genommen ein Roboter, der sich hinter einem Social-Media-Account versteckt. Da Social-Media-Konten per Definition eine Abstraktion der menschlichen Persönlichkeit sind, ist es zudem einfach, das menschliche Gegenüber unbemerkt durch eine Maschine zu ersetzen.

Oftmals werden Social Bots verwendet, um die Wahrnehmung der Realität zu verzerren. Ein sehr einfaches Szenario ist es, die Popularität eines bestimmten Themas zu erhöhen. Wenn viele Konten dieses Thema positiv markieren, teilen oder posten, halten soziale Netzwerke es für sehr wichtig und erhöhen seine Sichtbarkeit für andere Benutzer – obwohl Maschinen es ursprünglich beworben haben.

Aber das ist nicht der einzige Punkt, in dem Social Bots Gesellschaften manipulieren können. Wie können soziale Bots zum Beispiel ein Wahlergebnis verändern?

Christian Grimme: Wir sind uns nicht sicher, ob dies überhaupt möglich ist, obwohl einige Forscher behaupten, dass es hier klare Zusammenhänge gäbe. Wir können uns aber einige strategische Szenarien vorstellen, in denen soziale Bots eine wichtige Rolle spielen. Denken Sie an einen Angriff durch Desinformationen, der indirekt und möglicherweise versehentlich durch die Medien verbreitet wird: Journalisten verlassen sich zunehmend auf Social Media, um Geschichten zu finden. Obwohl es im Journalismus immer noch ethische Grundsätze gibt, wie man eine Geschichte vorbereitet, Quellen sammelt und überprüft, greifen Journalisten vermehrt Themen auf, die in Social Media prominent sind. Wenn wir nun in der Lage sind, Trends, Inhalte und Resonanzen für ein bestimmtes Thema in den sozialen Medien zu manipulieren, können wir dieses Thema vielleicht durch journalistische Multiplikation in den gesellschaftlichen Diskurs bringen. In diesem Fall richten wir uns nicht an die Nutzer von Social Media, sondern an die gesamte Gesellschaft. Insbesondere an diejenigen, die keine Social Media nutzen.

Das ist ein beängstigendes Szenario, aber ist es wirklich so einfach?

Christian Grimme: Nein, natürlich nicht. Dies ist ein künstliches Szenario. Obwohl wir schon oft gesehen haben, wie machtvoll Informationen sind, die über Social Media verbreitet werden. Denken Sie an das deutsche Satiremagazin, das eine Falschinformation über eine Spaltung in der deutschen konservativen Partei veröffentlicht hat. Da dies wahrscheinlich das Ende der bestehenden Regierung bedeutet hätte, berichteten einige Nachrichtenagenturen – auch Reuters – darüber, offensichtlich ohne weitere Überprüfung. Es kam zu einigen politischen Turbulenzen und Reaktionen an den Aktienmärkten. Ich denke, das verdeutlicht das Potenzial. Aber die Manipulation der Gesellschaft ist kein unmittelbarer Akt. Es braucht viel Vorbereitung, etwas Glück und vor allem Zeit. Wenn es jedoch genügend Zeit gibt, können Desinformationen, Fake News und soziale Bots für einen langfristigen Meinungswandel genutzt werden.

Bedeutet das auch, dass Manipulation, gefälschte Nachrichten und Social Bots wirtschaftliche Effekte und Auswirkungen auf das Customer Relationship Management haben können?

Heike Trautmann: Kollegen der Allianz für Sicherheit in der Wirtschaft (ASW) haben in einer Studie einige sehr interessante Angriffsvektoren identifiziert. Neben der Manipulation des Aktienmarktes durch falsche Informationen oder Stimmungen in Social Media – um automatisierte Handelsalgorithmen zu manipulieren – gibt es sehr spezifische Vektoren, um Unternehmen anzugreifen. Ein wichtiges Thema ist die Zerstörung der Reputation. Neben gefälschten Produktbewertungen kann man auch den Ruf eines Unternehmens als Arbeitgeber oder zuverlässiger Geschäftspartner vernichten. Sie sehen, dies hat schwerwiegende Auswirkungen auf das Customer Relationship Management, sowohl im B2B- als auch B2C-Bereich. Die Grundideen hinter all diesen Angriffen sind jedoch die gleichen wie im gesellschaftlichen Kontext: Inhalte in sozialen Netzwerken zu verzerren und auf Verbreitung sowie eine entsprechende Wahrnehmung durch die Öffentlichkeit zu hoffen.

Was kann man gegen Social Bots, Fake News und Desinformationen tun? Derzeit gibt es einige Forschungen, auch von Ihnen, zu Social Bots. Warum können wir sie nicht aus Social Media verbannen?

Christian Grimme: Tatsächlich ist es nicht einfach, Social Bots zu identifizieren. Kollegen haben dafür einige Mechanismen vorgeschlagen, die von sehr einfachen Indikatoren bis hin zu Ansätzen mit Hilfe von maschinellem Lernen reichen. Nach unserer Erfahrung reichen diese Indikatoren allein – wie ausgefeilt sie auch sein mögen – jedoch nicht aus, um die Automatisierung hinter Social-Media-Accounts zuverlässig zu erkennen. Sie können sich vorstellen, dass es im Extremfall hilfreich sein kann, die Beiträge eines einzelnen Kontos zu zählen. Aber es ist eher unsinnig, einen festen Schwellenwert zu setzen, der Bots von Menschen unterscheidet.

Große Probleme treten auch bei Ansätzen mit maschinellem Lernen auf, wie etwa beim berühmten Botometer, früher als BotOrNot bekannt. Um einen solchen Detektor zu trainieren, sind manuell ausgewertete Konten von Menschen und sozialen Bots notwendig, um Muster zu identifizieren. Dies kann zwar helfen, einige Muster im verfügbaren Datensatz zu finden, vernachlässigt aber, wie sich Konten im Laufe der Zeit entwickeln. In einer Studie haben wir festgestellt, dass sich die Bot-Accounts nach mehreren Monaten so stark verändert hatten, dass die Detektoren nicht mehr in der Lage waren, die Trainingsdaten selbst zu klassifizieren.

 

Wenn es so kompliziert ist, mit Social Bots umzugehen, was ist dann Ihr Ansatz?

Christian Grimme:Ehrlich gesagt denken wir, dass es falsch ist, sich auf die Erkennung von Social Bots zu fokussieren. Was hilft es zu wissen, ob ein Konto automatisiert, halbautomatisiert oder menschlich gesteuert ist? Solange postende Roboter nicht Teil einer Desinformationsstrategie, Kampagne oder eines Propagandaangriffs sind, sind sie grundsätzlich nicht schädlich. Einige sind sogar hilfreich und posten Wetterdaten oder andere interessante Dinge. Und ist eine Gruppe von Menschen, die für einen koordinierten Angriff auf die öffentliche Meinung bezahlt wird, besser als automatisierte Propaganda? Nein.

Daher halten wir es für sinnvoller, auf Desinformations- und Manipulationsstrategien zu achten, statt auf einzelne Akteure. Wenn wir eine bösartige Strategie finden, können wir – von oben nach unten – Trolle und Social Bots gleichermaßen identifizieren. Daher brauchen wir nicht einen Indikator, sondern mehrere, die unterschiedliche Aspekte einer Kampagne und der darin enthaltenen Akteure ansprechen. Dieser Indikatorensatz kann auch Möglichkeiten zur Erkennung von Automatisierung beinhalten, aber das ist nicht der Fokus.

 

Und das ist auch Teil Ihrer Forschungsprojekte?

Heike Trautmann: Ja, wir sind an vielen Projekten beteiligt, die diese Themen sehr interdisziplinär angehen. So ist beispielsweise das Projekt „PropStop“ ein Projekt, in dem Informatiker, Statistiker, Sozialwissenschaftler und Journalisten gemeinsam an der Erkennung automatisierter Propaganda arbeiten. Es geht ausdrücklich darum, digitale Propaganda zu erkennen, und nicht nur Bots allein. Darüber hinaus befasst sich das Projekt „DemoResil“, das von einer Kollegin aus der Psychologie und Kommunikationswissenschaft geleitet wird, mit Mechanismen zur Erkennung gefälschter Nachrichten und zur Stärkung der Widerstandsfähigkeit gegen Desinformation.

Das kommende Projekt „Moderat“ wird sich mit dem Thema Hate Speech auf technischer Ebene befassen, um Moderatoren von Online-Newsgroups zu unterstützen. Und unsere Zusammenarbeit mit den Bundessicherheitsbehörden zeigt, dass Social Media im Rahmen der Cybersicherheit zunehmend als kritische Infrastrukturen angesehen werden.

Was sind aus Ihrer Sicht zukünftige Herausforderungen für die Forschung?

[Christian Grimme:] Es gibt viel zu tun, wir stehen erst am Anfang der Forschung. Wir müssen verstehen, wie Propaganda über Onlinemedien funktioniert. Dazu gehören nicht nur technische Aspekte, sondern auch psychologische Auswirkungen, die Aktivitäten in Social Media haben, sowie die Auswirkungen auf Wirtschaft, Politik und Gesellschaft.

Denken Sie daran, vor drei Jahren waren Desinformationen über Social Media noch kein Thema –  zumindest nicht in Deutschland. Wer weiß, was in drei Jahren sein wird. Das bedeutet, dass wir zukünftige Trends und Technologien einbeziehen müssen, um neue Formen der Manipulation vorherzusagen. Welchen Einfluss wird beispielsweise der Fortschritt der künstlichen Intelligenz haben? In diesem Kontext kooperieren wir intensiv mit der europäischen KI-Initiative CLAIRE. Darüber hinaus wird die Frage der Social Media als kritische Infrastruktur im Mittelpunkt der Forschung stehen. Daher ist eine leichte Verschiebung der Perspektive auf den Bereich der Cybersicherheit wichtig. Hier arbeiten wir mit öffentlichen Einrichtungen und Behörden zusammen.

Schließlich muss das Netzwerk von Wissenschaftlern und Praktikern aus verschiedenen Bereichen gestärkt werden, um allen neuen Herausforderungen gerecht zu werden. Deshalb bauen wir derzeit eine nachhaltige Institution als Anlaufstelle für die Zusammenarbeit und Dach für unsere gesamte Forschung auf: das ERCIS Kompetenzzentrum für Social-Media-Analytik. Hier koordinieren wir alle Aktivitäten und stellen – ebenso wichtig – sicher, dass Praktiker wie Karsten Kraume eingebunden sind. Er arbeitet bei Bertelsmann und ist in mehreren Gremien wie ERCIS und RISE SMA tätig.

Vielen Dank für das Gespräch.

 

Prof. Dr. Heike Trautmann

Prof. Dr. Heike Trautmann ist Professorin für Wirtschaftsinformatik und Statistik am Institut für Wirtschaftsinformatik der Westfälischen Wilhelms-Universität Münster und wissenschaftliche Leiterin des ERCIS Omni-Channel-Labs powered by Arvato. Sie ist außerdem akademische Co-Leiterin des ERCIS Competence Center for Social Media Analytics und Direktorin des ERCIS-Netzwerks.

PD Dr.-Ing. Christian Grimme

PD Dr.-Ing. Christian Grimme ist Privatdozent am Lehrstuhl für Wirtschaftsinformatik und Statistik der Westfälischen Wilhelms-Universität Münster und wissenschaftlicher Co-Leiter des ERCIS Competence Center for Social Media Analytics. Er ist außerdem Projektkoordinator des Projektes PropStop, Leiter einer Studie für das Bundesamt für IT-Sicherheit vor der Bundestagswahl und Initiator des Multidisciplinary International Symposium on Disinformation in Open Online Media (MISDOOM) 2019.

 

 

 

 

Autor: Redaktion Zukunft. Kunde.
Bild: © sdecoret – AdobeStock

 

 

Tags for this article Digitalisierung (157) Social Media (17)

>53000

Mitarbeiter

29

Länder

>60

Sprachen

>12

Jahre dauern unsere Kundenbeziehungen durchschnittlich

500+

Auftraggeber weltweit

Wir sind global und immer nah bei Ihnen

Wir sind global

Wir glauben an Innovation. Hier finden Sie unsere neuesten Innovationen.

Neuigkeiten

25. September 2020

Majorel feiert zehnjähriges Jubiläum in Rumänien

Seit der Eröffnung des ersten Servicecenters in Brasov vor zehn Jahren, ist unser Team in Rumänien auf mehr als 1.300 Mitarbeiterinnen und Mitarbeiter gewachsen. Unser Standortnetzwerk vor Ort umfasst heute neben Brasov auch Standorte in Sibiu, Cluj-Napoca und Bukarest.

Weiterlesen

    Wir sprechen Ihre Sprache und freuen uns, von Ihnen zu hören. Nehmen Sie Kontakt mit uns auf.