Ref. :  000041787
Date :  2018-07-09
langue :  Allemand
Page d'accueil / Ensemble du site
fr / es / de / po / en

Die Lösung des Desinformationsproblems

image


MENLO PARK, KALIFORNIEN – Seit die Anfälligkeit digitaler Kanäle für die Verbreitung von „Fake News” bei den US-Präsidentenwahlen im November 2016 deutlich wurde, ist eine Debatte darüber im Gang, wie man der Desinformation entgegenwirken könnte. Dabei wurden einige Fortschritte erzielt, seit die Chefs von Facebook, Google und Twitter vor acht Monaten dem amerikanischen Kongress Rede und Antwort darüber standen, in welcher Weise sich russische Quellen ihrer Plattformen bedienten, um die Wahl zu beeinflussen. Die Suche nach Lösungen ließ jedoch klar werden, dass es wohl kein Patentrezept gibt.

Statt einer einzigen umfassenden Lösung sind zahlreiche Schritte erforderlich, die sich dem Problem aus mehreren Blickwinkeln nähern. Das moderne Informationsökosystem präsentiert sich wie ein Zauberwürfel, bei dem für die „Lösung“ jedes einzelnen Quadrats ein anderer Schritt erforderlich ist. Hinsichtlich der digitalen Desinformation sind mindestens vier Aspekte zu berücksichtigen.

Erstens ist die Frage, wer die Desinformation verbreitet. Desinformation, die von ausländischen Akteuren verbreitet wird, ist – sowohl rechtlich als auch normativ – anders zu behandeln als Desinformation, die von den Bürgern selbst verbreitet wird, insbesondere in den Vereinigten Staaten mit ihren beispiellosen Schutzbestimmungen für die Meinungsfreiheit und ihren relativ strengen Regeln im Hinblick auf ausländische Einmischung.

Weniger komplexe Fälle ausländischer Interventionen könnten in den USA mit einer Kombination aus automatischer Sprachverarbeitung und Ortsbestimmung in Angriff genommen werden, um Akteure aufzuspüren, die außerhalb des Landes operieren. Wo Änderungen auf Plattform-Ebene versagen, könnten umfassendere staatliche Interventionen wie allgemeine Sanktionen greifen.

Zweitens lautet die Frage, warum Desinformation in Umlauf gebracht wird. Ungenaue und unabsichtlich ausgestreute „Fehlinformationen” unterscheiden sich wesentlich von Desinformation oder Propaganda, die mit voller Absicht verbreitet wird. Zumindest teilweise könnte man mit Kampagnen zur Förderung der Nachrichtenkompetenz oder Initiativen für Faktenüberprüfung wohlmeinende Akteure an der unbeabsichtigten Verbreitung von Falschinformationen hindern. Böswillige Akteure von der bewussten Verbreitung derartiger Informationen abzuhalten ist hingegen viel komplizierter und hängt von deren speziellen Zielsetzungen ab.

So könnte man beispielsweise den rein profitorientierten Akteuren – wie den mittlerweile berüchtigten Jugendlichen aus Mazedonien, die mit dem Betrieb von „Fake-News-Seiten“, tausende Dollars verdienten - mit neuen Werbebestimmungen, die ihre Einnahmequellen zum Versiegen bringen, das Handwerk legen. Doch diejenigen, die Desinformationen aus politischen oder sozialen Gründen in Umlauf bringen, würde man mit derartigen Bestimmungen nicht beikommen. Handeln diese Akteure als Teil organisierter Netzwerke, müsste man mit den Interventionen das gesamte Netzwerk zerstören, um entsprechende Wirkung zu erzielen.

Drittens ist zu klären, wie die Desinformation verbreitet wird. Werden die Inhalte über die sozialen Medien geteilt, könnten Änderungen der Richtlinien der Plattformen und/oder staatliche Regelungen ausreichen. Derartige Änderungen müssen allerdings speziell zugeschnitten sein.

Um beispielsweise die Nutzung von Bots zur künstlichen Weiterverbreitung von Inhalten zu beenden, könnten die Plattformen verlangen, dass die Benutzer ihre wahre Identität preisgeben (wiewohl dies in autoritären Regimen problematisch wäre, wo Demokratie-Aktivisten durch Anonymität geschützt sind). Zur Einschränkung des komplexen Mikrotargetings – der Nutzung von Verbraucherdaten und demographischer Daten zur Vorhersage von Interessen und Verhaltensweisen des Einzelnen, um ihre Denkweisen oder Handlungen zu beeinflussen - müssen Plattformen möglicherweise ihre Datenaustausch- und Datenschutzrichtlinien ändern und neue Werberichtlinien einführen. Anstatt beispielsweise Werbetreibenden die Möglichkeit zu geben, für lediglich 30 Dollar Zugriff auf 2.300 wahrscheinliche „Judenhasser” zu erhalten, sollten die Plattformen die Ziele politischer Anzeigen offen legen, bestimmte Targeting-Kriterien verbieten oder begrenzen, wie klein eine Gruppe sein darf – was in manchen Fällen mittlerweile bereits geschieht.

Es handelt sich um eine Art Wettrüsten. Böswillige Akteure werden die von den digitalen Plattformen eingeführten Änderungen rasch umgehen. Um diesem Treiben Einhalt zu gebieten, sind ständig neue Methoden erforderlich – wie etwa die Nutzung einer Blockchain zur Authentifizierung von Originalfotos. Es bestehen allerdings wenig Zweifel, dass digitale Plattformen besser gerüstet sind, um ihre Strategien regelmäßig anzupassen als staatliche Regulierungsbehörden.

Dennoch können digitale Plattformen den Umgang mit Desinformation nicht alleine bewältigen, nicht zuletzt deshalb, weil laut mancher Schätzungen die sozialen Medien nur für etwa 40 Prozent der Zugriffe auf die ungeheuerlichsten „Fake-News-Webseiten“ verantwortlich sind und die anderen 60 Prozent „organisch“ oder über „Dark Social“ (wie etwa den Kurznachrichtenaustausch oder dem E-Mail-Verkehr zwischen Freunden) kommen. Diese Datenpfade sind schwieriger im Auge zu behalten.

Der letzte - und wohl wichtigste – Aspekt des Problems der Desinformation ist: was wird geteilt? Experten konzentrieren sich tendenziell auf vollkommen gefälschte Inhalte, die leichter zu identifizieren sind. Aber für digitale Plattformen bestehen natürlich auch Anreize, solche Inhalte einzudämmen, und zwar einfach deshalb, weil die Leute im Allgemeinen nicht dumm dastehen wollen, wenn sie falsche Geschichten teilen.

Sehr wohl jedoch lesen und teilen Menschen gerne Informationen, die mit ihren Perspektiven übereinstimmen; und sie tun das umso lieber, wenn damit starke Emotionen - vor allem Wut – ausgelöst werden. Da sich die Nutzer intensiv mit dieser Art von Inhalten beschäftigen, haben digitale Plattformen einen Anreiz, diese herauszustellen.

Derartige Inhalte sind nicht nur polarisierend, sondern vielfach irreführend und aufrührerisch und es gibt Anzeichen, dass sie den konstruktiven demokratischen Diskurs untergraben können. Aber wo liegt die Grenze zwischen gefährlichen, auf Verzerrungen beruhenden Konflikten und lebhaften politischen Debatten aufgrund unterschiedlicher Weltanschauungen? Und wer, wenn überhaupt jemand, soll diese Grenze ziehen?

Selbst wenn diese ethischen Fragen beantwortet werden, stellt die Identifizierung problematischer Inhalte in großem Maßstab ernsthafte praktische Herausforderungen dar. Zahlreiche der besorgniserregendsten Beispiele für Desinformation haben sich nicht auf eine bestimmte Wahl oder einen Kandidaten konzentriert, sondern vielmehr auf die Ausnutzung gesellschaftlicher Spaltungen wie etwa im Bereich ethnischer Zugehörigkeit. Und in vielen Fällen wurde diese Desinformation nicht gekauft. Aus diesem Grund wären die neuen Bestimmungen zur politischen Werbung wie das von Facebook und Twitter unterstützte Gesetz Honest Ads Act in diesem Fall nicht anwendbar.

Wenn es schon in den USA unklar ist, wie Lösungen für das Problem der Desinformation aussehen sollen, präsentiert sich die Situation im internationalen Kontext noch heikler, weil das Problem auf dieser Ebene noch dezentralisierter und undurchsichtiger ist – ein weiterer Grund, warum eine übergreifende und umfassende Lösung nicht möglich ist.

Obwohl sich jede Maßnahme nur einem begrenzten Teilbereich widmet - verbesserte Werberichtlinien lösen vielleicht 5 Prozent des Problems und andere Bestimmungen für den Bereich Mikrotargeting womöglich 20 Prozent – können alle Bestrebungen zusammen zu Fortschritten führen. Das Endergebnis wird ein Informationsumfeld sein, das sich zwar unvollkommen präsentiert, aber nur einen relativ geringen Anteil an problematischen Inhalten aufweist – unvermeidlich in demokratischen Gesellschaften, wo man den Wert der Meinungsfreiheit hochhält.

Die gute Nachricht ist, dass Experten nun Zugang zu geschützten Daten von Facebook erhalten werden, die ihnen dabei helfen, die Auswirkungen der Plattform auf Wahlen – und Demokratien – auf der ganzen Welt zu verstehen (und zu verbessern). Es bleibt zu hoffen, dass andere digitale Plattformen - wie Google, Twitter, Reddit und Tumblr - diesem Beispiel folgen. Mit den richtigen Erkenntnissen und dem Bekenntnis zu grundlegenden, wenn auch stufenweisen Veränderungen können die sozialen und politischen Auswirkungen digitaler Plattformen auf die bedrängten Demokratien von heute sicher - oder zumindest sicherer - gestaltet werden.

Aus dem Englischen von Helga Klinger-Groier


Notez ce document
 
 
 
13
RECHERCHE
Mots-clés   go
dans 
Traduire cette page Traduire par Google Translate
Partager

Share on Facebook
FACEBOOK
Partager sur Twitter
TWITTER
Share on Google+Google + Share on LinkedInLinkedIn
Partager sur MessengerMessenger Partager sur BloggerBlogger