Società | Soziale Medien

Straßenverkehrsordnung fürs Internet

Die Journalistin und Autorin Ingrid Brodnig forscht zur Verbreitung von Hass im Netz. Ein Gespräch über digitale Nebenwirkungen und wie wir aus Unfällen lernen können.
social media
Foto: Neonbrand (c) unsplash

Sobald das Auto gegen die Wand prallt, ist es zu spät, den Unfall zu verhindern. Es bleibt aber noch Zeit, aus den Fehlern, die den Unfall verursacht haben, zu lernen. Dafür müssen die sich bietenden Chancen genutzt werden. Ähnlich sieht die in Österreich lebende Journalistin und Buchautorin Ingrid Brodnig Unfälle im Netz. Haben die über Twitter und Facebook gestreuten Falschmeldungen zu einem Angriff auf das amerikanische Parlament geführt, so ist das eine Alarmglocke, die den Sturm zwar nicht mehr verhindern kann, aber zu grundlegenden Reformen zwingt.

 

Hass im Netz wie Morddrohungen gegen Politiker oder Wut, die sich gegen Flüchtlinge richtet, ist, so Brodnig, oft Folge von Falschmeldungen. Warum aber durchtränken Falschmeldungen soziale Medien so rasend schnell? Unsere Aufmerksamkeit wird zu einem großen Teil von unseren Emotionen gesteuert, eine Tatsache, derer sich die Urheber von Falschmeldungen bedienen. So scheinen Fake News direkt aus der Seele zu sprechen und finden in unseren Köpfen und den sozialen Foren, die wir besuchen, Halt und Zuspruch. Trotzdem: Was sich im Netz als weitverbreitete Meinung kleidet, betrifft in Wahrheit eine Minderheit. Wie Brodnig erklärt, wird der Ton in den sozialen Medien von einer "Minderheit auf Mission" angegeben. So verfassten beispielsweise rund um die österreichischen Nationalratswahlen 2017 nur 8900 Nutzer die Hälfte aller politischen Posts auf Facebook. Warum ist der Hass dieser Minderheit im Netz so sichtbar? Schuld sind: Fehlende Gesetze, Plattformdesign, Algorithmen und wir.

Verfügt die Plattform anstatt des “like-Buttons” über einen Druckknopf, der Respekt ausdrückt, werden auch jene Autoren, die die Meinung der Leser nicht widerspiegeln, für ihre Arbeit mit einer sichtbaren Reaktion belohnt.

 

Rechtliche Grauzone 

 

Die rechtliche Grauzone, die sich bis dato vor allem auf die Selbstverpflichtung der Unternehmen verlässt, begünstigt die Verbreitung von Falschmeldungen und Hass im Netz. Soziale Foren wie Facebook und Twitter entscheiden selbst, was auf ihren Plattformen veröffentlicht werden darf und was nicht. Auch über die Sperrung der Nutzerprofile verfügt, wie in der Trump-Affäre deutlich wurde, letztendlich die Plattform. Es gäbe diesbezüglich zwar Richtlinien der EU, diese sind aber nicht bindend, wirft die Rechtswissenschaftlerin Claudia Rauchegger ein. Das dadurch entstehende demokratische Vakuum führt einerseits dazu, dass private Unternehmen gesellschaftlich prägende Entscheidungen treffen. Andererseits nimmt man in Kauf, dass Unternehmen viel zu spät oder gar nicht nicht auf die Verbreitung von Falschmeldungen und Hass im Netz reagieren.

Die Folgen ungeregelter Diskussionsräume im Netz (gepaart mit dem Sexismus der Nutzer) musste die Südtiroler Landtagsabgeordnete der Grünen, Brigitte Foppa, erst Mitte Januar erfahren: Foppa wurden auf Facebook dreiste sexistische Beleidigungen an den Kopf geworfen, die sie nun selbst zur Anzeige bringen wird.

Mittlerweile existieren EU-weite und auch länderspezifische Gesetzesvorschläge, die eine Regulierung der Plattformen anstreben. Diese zielen jedoch vor allem auf illegale Inhalte wie beispielsweise Kinderpornografie ab. Im Bezug auf die Regulierung von Falschmeldungen und Hassbotschaften gibt es bis dato weder Gesetze noch diesbezügliche Entwürfe. Zwar wachse das nötige Bewusstsein, mit rechtlichen Maßnahmen eingreifen zu müssen, konkret sei aber noch nichts unternommen worden, so Rauchegger. Ein Versäumnis, das sofort nachgeholt werden muss.

 

Mag ich das oder respektiere ich es bloß?

 

Das Plattform- und Druckknopfdesign prägen die Diskussionskultur und steuern so die Verbreitung von Hass und Falschmeldungen. Brodnig verweist diesbezüglich auf eine Studie von Taylor Stout, die die Wirkung emotional geprägter Buttons wie “like” mit sachlichen Köpfen wie einem “Respekt” Button vergleicht. Das Ergebnis: Verfügt die Plattform anstatt des “like-Buttons” über einen Druckknopf, der Respekt ausdrückt, werden auch jene Autoren, die die Meinung der Leser nicht widerspiegeln, für ihre Arbeit mit einer sichtbaren Reaktion belohnt. Wütende Buttons hingegen führen zwar zu vielen Klicks, da sie sowohl zum Ärger mit dem Autor als auch über den Autor geeignet sind, fördern aber kaum eine sachliche Diskussion. Um ungewünschte Nebenwirkungen zu verhindern, muss jede Plattform überlegen, welche Diskussionskultur sie fördern möchte und diese durch passendes Design, Druckknöpfe und Reaktionsmöglichkeiten begünstigen.

 

Algorithmen als Drama-Maschine?

 

Die Frage, inwieweit die Algorithmen der sozialen Medien zur Verbreitung von Hass und anderen emotional geladenen Botschaften beitragen, bleibt bis dato ungelöst. Obwohl Beobachtungen darauf verweisen, dass emotional geladene Posts, die viele Reaktionen hervorrufen, weitgehend begünstigt werden, ist eine eindeutige Schlussfolgerung nicht möglich. Die verwendeten Algorithmen sind nicht nur für Privatpersonen, sondern auch für die Wissenschaft unzugänglich. Somit ist es nicht möglich, diese gesetzlich zu regulieren und Mindeststandards einzuführen.

Vor allem für sensible Bereiche seien solche Mindeststandards aber unumgänglich, so Brodnig: Algorithmen treffen Entscheidungen für und über Menschen; sie entscheiden, was wir sehen und was wir nicht sehen dürfen. Deshalb müssen Algorithmen zumindest soweit für die Wissenschaft zugänglich gemacht werden, dass Tests im Bezug auf gesetzlich geforderte Mindeststandards durchgeführt werden können. Somit könnten ethnische und rechtliche Prinzipien in Algorithmen verpackt werden.

 

Die Macht der Einzelnen

 

Nicht nur Rechtsstaat und Unternehmen, sondern auch der und die Einzelne sind gefordert, um die Verbreitung von Falschmeldungen und Hass im Netz einzudämmen. Viele von uns neigen beispielsweise dazu, die Berichtigung einer Falschmeldung durch eine simple Verneinung zu erzielen. Das Problem: Der Inhalt von Falschmeldungen wird durch deren Wiederholung, und somit auch durch eine simple Verneinung, viral. Emblematisch dafür ist der Hashtag #NotTheEnemy, den Journalisten nutzten, um sich gegen Trumps Angriff, Medien seinen Feinde der Bevölkerung, zur Wehr zu setzen. Durch die klare Wiederholung des Angriffs verstärkten sie die Kraft der Aussage und trugen so paradoxerweise zu deren Verbreitung bei. Brodnig schlägt vor, sich stattdessen an einem Truth-Sandwich nach Brian Stelter zu orientieren. Das Brötchen – oder Beginn und Ende einer Aussage – sollen die Wahrheit bezeugen, die Unwahrheit wird gekonnt darin verpackt.

 

DiSCussion mit Ingrid Brodnig, von (c) DiSCussion, YouToube

 

Bild
Profile picture for user Gianguido Piani
Gianguido Piani Sab, 01/23/2021 - 10:55

Stellen wir es uns vor, es gäbe eine alternative Plattform: Eurobook, Italbook, Tirolbuch. Dort könnte man miteinander kommunizieren, Fotos aufladen, Inhalte verteilen, Fernunterricht führen, das jährliche Treffen der Hausbewohner organisieren und vieles mehr. Diese Plattform hat keine "Likes". Sie sammelt keine Daten über das Verhalten der Nutzer und verwertet sie auch nicht zu kommerziellen Zwecken. Etwa wie eine sehr berühmte amerikanische Plattform, jedoch ohne deren negative Seiten.
Die Technologie ist bekannt, die Kosten dürften überschaubar sein. Server-Kapazitäten werden auf die Anzahl der Nutzer angepasst.
Diese neue Plattform wird von keinen geheimen Algorithmen gesteuert. Dagegen bieten lokale Ansprechgruppen den direkten Zugang an. Fühlt sich jemand von Hassbotschaften getroffen? Ein Anruf sollte ausreichen, um diese Gruppe zu informieren. Diese könnte dann innerhalb von Minuten, nicht Monaten oder Jahren, wenn überhaupt, zugreifen.
Die EU-Kommission, die Italienische Regierung, die Regierung der APB hätten alle die notwendige Glaubwürdigkeit und das Durchsetzungsvermögen ein solches Projekt zu starten. In der Zeit der Next-Generation EU sollte auch die Finanzierung kein unüberwindbares Problem darstellen.
Worauf warten wir noch?

Sab, 01/23/2021 - 10:55 Collegamento permanente
Bild
Profile picture for user Klemens Riegler
Klemens Riegler Sab, 01/23/2021 - 12:32

Wie schon im Beitrag geschrieben, lesen viel weniger Menschen als gedacht gewisse FB oder Twitter-Einträge (nur weil das System angibt, dass ich es erhalten habe, habe ich es noch lange nicht gelesen / würden wirklich alle Einträge lt. FB-Statistik gelesen, hätte niemand mehr Zeit etwas anderes zu tun).
Das Problem sind dann eigentlich wieder die "richtigen" Medien und die Betroffenen, die auf diese Hass- und Fake-Posts verweisen. Und damit erst recht die Klickrate nach oben schießen lassen. Selbst ein ZDF oder die RAI usw. machen sich damit eigentlich mitschuldig. Denn erst sie verschaffen diesen Posts die von den Urhebern gewünschte Aufmerksamkeit.
Für mich bleibt als einzige Waffe: die eigenen Sozialmedia-Accounts stilllegen und alle anderen ignorieren. Wer hätte den Shit-Post gegen die liebe Brigitte Foppa gelesen ... wenn nicht die offiziellen Medien den Tatbestand veröffentlicht hätten. Also ich würde nichts davon wissen. Und wie schon einmal hier gepostet: Wichtige Menschen (Politik, Medien, Gesellschaft, Stars) sollten sich gar nicht über negative Einträge in Social Media Kanälen aufregen, solange sie selbst einen betreiben. Irgendwie finde ich es eigentlich pervers wenn ein Öffentlich-Rechtliches Medium einen FB-Account betreibt und zudem noch dauern (gratis) darauf verweist ... und sich dann aufregen, dass die Besitzer steinreich sind, unsere Daten verkaufen und keine Steuern zahlen.

Sab, 01/23/2021 - 12:32 Collegamento permanente