Direkt zu den Inhalten springen

sdWerte – Geförderte, Alumni und Mentor*innen zeigen Flagge

Eva engagiert sich im Bereich Digital Rights

Fake News sind ein unerfreuliches Phänomen unserer Zeit. Eva, Informatik-Studentin und Stipendiatin im Studienförderwerk, gibt Einblicke in Themen wie Filterbubbles in sozialen Medien und Beeinflussung von Wahlverhalten.

Wie sieht dein Engagement im Bereich Digital Rights und AI Ethics aus?
Ich bin Mitglied und Mitgründerin der Non-Profit-Organisation Think Tech. An der TU München beispielsweise haben wir Informatikstudent*innen in einem Seminar dazu angeregt, sich mit ethischen Fragestellungen ihrer zukünftigen Tätigkeiten zu beschäftigen. Auf der UN-Abrüstungskonferenz zu autonomen Waffensystemen habe ich einen Vortrag über Desinformation und psychologische Cyberwarfare gehalten. Und im April konnten wir im Rahmen des Z2X-Festivals von ZEIT ONLINE einen Workshop zum Thema "Fake News in Zeiten von Corona" veranstalten. Besonders interessiere ich mich dafür, wie unsere Meinung durch soziale Medien unabsichtlich und absichtlich beeinflusst wird.

Wie werden wir unabsichtlich auf sozialen Medien beeinflusst?
Unabsichtliche Beeinflussung erfolgt vor allem dadurch, dass soziale Medien uns meistens nur Posts zeigen, für die Algorithmen berechnet haben, dass sie uns interessieren könnten. Je interessanter ein User die Posts findet, desto länger bleibt er auf der Webseite und desto mehr Geld kann der Betreiber für Werbung dritter Parteien verlangen, die auf der Webseite angezeigt wird. Dieses Phänomen wird häufig als Filterbubble bezeichnet: Ein User bekommt nur noch Dinge zu sehen, die seinen Interessen entsprechen. Einem AfD-Mitglied z. B. wird auf Twitter kein Artikel über die positiven Faktoren von Zuwanderung angezeigt. Hinzu kommt: Wenn ich Posts, die mir nicht gefallen, kommentiere, bewerten Algorithmen den Post als interessant für andere. Dadurch verleihe ich einer Nachricht, der ich inhaltlich widerspreche, noch größere Reichweite.

Und welche absichtliche Beeinflussung gibt es auf sozialen Medien?
Unter absichtliche Beeinflussung fallen z. B. politische Kampagnen in sozialen Medien, um gezielt Leute von einer politischen Meinung zu überzeugen. Zum einen benötigt man für eine solche Kampagne glaubhaften Content (Posts, Bilder, Werbebanner), der den Nutzern angezeigt wird. Diesen Inhalt zu generieren ist im Zeitalter von Deepfakes auch kein Problem mehr: Maschinen generieren uns künstlich Texte, neuronale Netze simulieren Stimmen und tauschen Gesichter in Videos aus, und falls wir eine Person erfinden müssen, dessen Foto wir als vertrauenswürdige Quelle unter einem gefälschten Artikel anzeigen, dann geht das mithilfe eines Klicks. Zum anderen muss der Content genau den Nutzern gezeigt werden, die man leicht überzeugen kann. Das nennt man Mikrotargeting. Um diese Nutzer zu finden, gab es große Datenanalysen, die Korrelationen zwischen dem Online-Verhalten (Likes, Freundesnetzwerk, Posts etc.) und verschiedenen Eigenschaften einer Person gefunden haben. Solche Korrelationen erlauben Aussagen. Beispielsweise, dass eine Person, die auf Facebook Musikgruppe X geliked hat und mit Person Y befreundet ist, höchstwahrscheinlich Partei Z wählen wird. In einer politischen Kampagne könnte eine andere Partei versuchen, gezielt diese Person davon abzuhalten Partei Z zu wählen.

Wie sollen wir uns hinsichtlich dieser Probleme verhalten?
Wir sollten kritischer gegenüber Informationen sein. Informationen, die uns auf sozialen Medien angezeigt werden, sind nicht objektiv: Sie sind maßgeschneidert auf unsere Meinung und eventuell gefälscht. Es gibt jedoch verschiedene Plugins, die die Vertrauenswürdigkeit von Quellen bewerten, sowie Datenbanken, welche über aktuelle Fake News informieren. Meiner Meinung nach sollten politische Mikrotargeting-Kampagnen verboten werden. Außerdem sollten wir uns fragen, ob es uns nicht wert wäre, für Twitter oder Instagram ein paar Euro im Monat zu zahlen, damit die Plattformen sich nicht mehr durch Werbung finanzieren müssen. Dann könnten sie Algorithmen entwickeln, die den User anregen, sich mit anderen politischen Meinungen zu beschäftigen. Bis das so weit ist, sollten wir nicht dem Bestätigungsbias verfallen, sondern auch mal gegenteilige Meinungen googlen und offen für alles außerhalb der eigenen Filterbubble bleiben.

Foto: privat