Politischer Diskurs: KI gegen Fake News

Foto: CC BY 2.0 Flickr User Bovee and Thill. Bildname: Artificial Intelligence. Ausschnitt bearbeitet.
Foto: CC BY 2.0 Flickr User Bovee and Thill. Bildname: Artificial Intelligence. Ausschnitt bearbeitet.
Veröffentlicht am 17.04.2019

Flickr-User-bovee-thill-KI-748x490
Foto: CC BY 2.0 Flickr User Bovee and Thill. Bildname: Artificial Intelligence. Ausschnitt bearbeitet.
Seit den US-Präsidentschaftswahlen vor drei Jahren stehen die Themen Wahlbeeinflussung und Falschinformationen im Fokus der Öffentlichkeit. Digitale Technologien spielen dabei eine zentrale Rolle und können zur Polarisierung in politischen Debatten beitragen. Auch das Europäische Parlament nahm schon 2016 eine Entschließung an, in der es auf die Gefahren von Desinformationskampagnen hinweist, Kritik an feindseliger Propaganda übt und die „aggressiven Tätigkeiten“ Russlands, Chinas, des Iran und Nordkoreas verurteilt.

Nun hat der wissenschaftliche Dienst des Europäischen Parlaments (EPRS) vor den anstehenden Europawahlen am 26. Mai zwei Studien veröffentlicht: Die Studie „Polarisation and the use of technology in political campaigns and communication“ legt den Fokus auf die Beziehung zwischen digitalen Technologien, Demokratie und der Polarisierung im öffentlichen Diskurs und wirft einen Blick auf die Möglichkeiten, die Algorithmen, Big Data oder neue Medien mit sich bringen. Zugleich wird diskutiert, welche Gefahren dadurch für den politischen und den öffentlichen Diskurs entstehen können.

Die Studie „Regulating disinformation with artificial intelligence“ thematisiert, wie Künstliche Intelligenz (KI) zur Eingrenzung von Falschinformationen eingesetzt werden kann, – ohne dabei die Meinungsfreiheit zu gefährden – ein Balanceakt. Die Europäische Union, schreiben die Autoren, könnte an dieser Stelle mit der Entwicklung eines entsprechenden Handlungsrahmens eine Vorreiterrolle einnehmen.

Worin bestehen die Herausforderungen?

Fake-News-Quer-bearbeitet
Foto: Public Domain Mark 1.0 Flickr User lotuslibrarian. Bildname: Fake News / Ausschnitt bearbeitet
Aus politischen Diskursen und Kampagnen sind digitale Technologien nicht mehr wegzudenken. Sie haben die Art zu kommunizieren oder sich zu informieren von Grund auf verändert. Graswurzelbewegungen formieren sich, Petitionen werden online eingereicht oder Spendenaufrufe werden verbreitet. Soziale Medien werden jedoch zunehmend Ziel von Manipulationsversuchen.

Inhalte und Dienste werden immer genauer auf die User zugeschnitten (polarisation by design). Durch gezieltes targeting, etwa durch bots, die Falschmeldungen oder Propaganda verbreiten (polarisation by manipulation) sollen gesellschaftliche Gruppen beeinflusst werden. Soziale Medien dienen als Katalysator für politischen Aktivismus, soziale und politische Teilhabe. Nutzt man für die Eindämmung von Falschinformationen Systeme zur automated content recognition (ACR) wird es kniffelig: Wo hört Meinungsfreiheit auf und wo fangen Falschinformationen an? Entsprechende Software kann nicht immer den Kern einer Meldung erfassen, mit sprachlichen Besonderheiten umgehen oder eine Meldung zielgenau einordnen.

Experten sehen politischen Handlungsbedarf

Die Autoren des EPRS geben verschiedene Handlungsempfehlungen, um Polarisierung und Desinformation vorzubeugen. Sie plädieren dabei aber für eine Regulierung der digitalen Welt mit Augenmaß, die positive Aspekte, Innovationen und Fortschritt zulässt, um dadurch von den Vorzügen der digitalen Technologien zu profitieren und die Gefahren zu minimieren. Eine nachhaltige Regulierung müsse daher vor allem an den Wurzeln der Polarisierung ansetzen – Verletzlichkeit der Technologischen Infrastruktur.

Konkret schlagen die Experten vor, dass Technologiekonzerne ihre Erreichbarkeit, etwa über Krisenhotlines ausbauen, jährliche Transparenzberichte vorlegen oder sich ethische Selbstverpflichtungen auferlegen. Die Wissenschaftler plädieren außerdem für eine Anpassung des Wahlrechts an die digitalen Lebenswirklichkeiten der Wähler

Einsatz von Künstlicher Intelligenz

Auch die KI nimmt im Kampf gegen Falschinformationen einen immer höheren Stellenwert ein. In diesem Kontext plädieren die Autoren der zweiten Studie dafür, dass Staaten Beschwerdemechanismen im Sinne eines „Social Media Council“ einrichten – einer selbstregulierenden, verbandsübergreifenden Institution, wie sie der UN-Sonderberichterstatter für Meinungsfreiheit gefordert hat. Dieser Social Media Council könnte sich einerseits mit industrieweiten Beschwerden und andererseits mit der besseren Vereinbarkeit von KI und Meinungsfreiheit befassen. Der Einsatz von KI solle zudem mit einer Überprüfung durch Menschen verknüpft werden. Es müsse zudem transparent sein, auf welcher Datengrundlage und durch welche Priorisierung Inhalte oder Suchergebnisse vorgeschlagen werden.

Schlagworte

Empfehlung der Redaktion