Desinformation bedroht die Demokratie, verstärkt durch Plattformen, die die Überprüfung von Fakten einschränken. Unsere Studie zeigt, wie die Schweiz dem mit KI, menschlicher Aufsicht, Aufklärung und Regulierung entgegenwirken kann, um digitale Resilienz aufzubauen.
In der sich rasant entwickelnden digitalen Landschaft von heute stellt Desinformation laut dem vom WEF veröffentlichten Global Risks Report 2024 eine der größten Bedrohungen für unsere demokratischen Gesellschaften dar. Desinformation, die häufig über soziale Medien und digitale Plattformen verbreitet wird, kann den öffentlichen Diskurs verzerren und die Glaubwürdigkeit von Institutionen untergraben.
Dieses Thema ist in letzter Zeit noch dringlicher geworden, da Meta das Ende seines Faktenprüfungsprogramms durch Dritte für Facebook und Instagram angekündigt hat. Mit dieser Entscheidung folgt das Unternehmen dem Beispiel von Elon Musks X, das sein Faktenprüfungsprogramm zugunsten einer Funktion namens „Community Notes” aufgegeben hat.
In unserer kürzlich veröffentlichten Forschungsarbeit „Bekämpfung von Desinformation mit Schwerpunkt auf Faktenprüfung und KI” haben wir untersucht, wie die Schweiz ihr digitales Ökosystem zur Bekämpfung von Desinformation nutzen kann, insbesondere durch den Einsatz von künstlicher Intelligenz (KI) und automatisierter Faktenprüfung.
In der Schweiz wie auch in vielen anderen Ländern wird für den Nachrichtenkonsum zunehmend auf digitale Plattformen zurückgegriffen, insbesondere von der jüngeren Bevölkerung. Soziale Medien und Online-Kanäle entwickeln sich zu den wichtigsten Informationsquellen. Allerdings kann jeder ohne Überprüfung oder redaktionelle Kontrolle Inhalte online erstellen und verbreiten.
Dieses Problem verstärkt die Herausforderungen, die mit der Unterscheidung zwischen authentischen/legitimen Nachrichten und Fake News verbunden sind. Diese Abkehr von traditionellen Nachrichtenquellen hat den Bedarf an wirksamen Mechanismen zur Bewältigung und Minderung der Risiken falscher Informationen erhöht, um sicherzustellen, dass die Öffentlichkeit Zugang zu zuverlässigen und genauen Daten hat.
Desinformation umfasst die absichtliche Verbreitung falscher Informationen mit dem Ziel, die Öffentlichkeit zu täuschen. Desinformation birgt globale Risiken, doch aufgrund ihrer dezentralen Regierungsform und der Bedeutung, die sie der Beteiligung der Öffentlichkeit beimisst, ist die Schweiz besonders anfällig dafür.
KI bietet ein erhebliches Potenzial zur Erkennung und Bekämpfung von Desinformation, hat jedoch auch ihre Grenzen. Die Skepsis der Öffentlichkeit hinsichtlich der Transparenz von KI in Verbindung mit einem Mangel an KI-gestützten Tools zur Überprüfung von Fakten unterstreicht die Notwendigkeit eines ganzheitlichen und vielschichtigen Ansatzes.
KI hat das Potenzial, die Faktenprüfung durch natürliche Sprachverarbeitung (NLP), maschinelles Lernen (ML) und sogar Blockchain-Technologie zu revolutionieren. Diese Tools können riesige Datenmengen verarbeiten, falsche Informationen identifizieren und menschliche Faktenprüfer dabei unterstützen, Behauptungen schneller und genauer zu überprüfen.
Solche KI-gesteuerten Systeme erweisen sich bereits als wirksam bei der Identifizierung schädlicher Inhalte, die sich sonst ungehindert verbreiten könnten. Die menschliche Aufsicht bleibt jedoch weiterhin von entscheidender Bedeutung. KI-Systeme sind zwar gut darin, große Datenmengen zu durchforsten, haben jedoch Schwierigkeiten mit nuancierten Inhalten, einschließlich kultureller Unterschiede, bei denen menschliches Urteilsvermögen unerlässlich ist.
Ohne menschliches Eingreifen könnte die automatisierte Faktenprüfung zu Fehlalarmen führen oder subtilere Formen von Fehlinformationen und Desinformation übersehen.
Eine der wichtigsten Empfehlungen in unserer Forschungsarbeit ist die Einführung von Explainable AI (XAI) – einem Rahmenwerk, das sicherstellt, dass KI-Systeme transparente, verständliche Erklärungen für ihre Schlussfolgerungen liefern. Diese Transparenz ist entscheidend für den Aufbau von Vertrauen bei den Nutzern und der breiten Öffentlichkeit.
Wie das deutsche Projekt DeFakts zeigt, trägt die Kombination von KI-Erkennung und menschlichem Fachwissen dazu bei, zu erklären, warum bestimmte Inhalte als Desinformation gekennzeichnet werden, was die Genauigkeit erhöht und das Vertrauen der Öffentlichkeit stärkt.
Der Kampf gegen Desinformation erfordert mehr als nur technologische Lösungen; eine breite Zusammenarbeit über verschiedene Sektoren hinweg ist wichtig. Das Papier betont, wie wichtig es ist, Wissenschaft, Medienorganisationen, private Unternehmen und staatliche Institutionen einzubeziehen, um umfassende Strategien zu entwickeln.
Auch die Sensibilisierung und Aufklärung der Öffentlichkeit spielen eine zentrale Rolle bei den Bemühungen der Schweiz, Widerstandsfähigkeit gegen Desinformation aufzubauen. Durch die Verbesserung der digitalen und medialen Kompetenz kann die Schweiz ihre Bevölkerung befähigen, die Informationen, die sie konsumiert, kritisch zu bewerten.
Das Papier empfiehlt, Programme zur Förderung der digitalen Kompetenz in die Lehrpläne der Schulen zu integrieren und öffentliche Workshops zu organisieren, um das Bewusstsein für Desinformation zu schärfen.
Ein proaktiver Ansatz, der als „Prebunking“ bekannt ist – die Aufklärung der Öffentlichkeit über gängige Desinformationstaktiken, bevor sie mit falschen Informationen konfrontiert wird –, kann die Auswirkungen irreführender Inhalte erheblich verringern.
Programme wie SSR SRG ’s „Newstest” und Kampagnen wie #UseTheNews sind Paradebeispiele für Initiativen, die darauf abzielen, die Medienkompetenz zu verbessern und der Öffentlichkeit dabei zu helfen, Fakten von Fiktion zu unterscheiden.
Um Desinformation wirksam entgegenzuwirken, muss die Schweiz einen einheitlichen Ansatz verfolgen, der KI-gestützte Faktenprüfung, menschliche Kontrolle, Aufklärung der Öffentlichkeit und sektorübergreifende Zusammenarbeit miteinander verbindet. Angesichts der kontinuierlichen Weiterentwicklung von KI-Technologien ist es von entscheidender Bedeutung, ethische Leitlinien und regulatorische Rahmenbedingungen zu schaffen, die Transparenz gewährleisten und Missbrauch verhindern.
Eines der größten Probleme im Zusammenhang mit KI ist ihr potenzieller Missbrauch, darunter Verzerrungen bei der algorithmischen Entscheidungsfindung und die Gefahr einer übermäßigen Abhängigkeit von undurchsichtigen Systemen.
Um diesen Bedenken Rechnung zu tragen, sollten Vorschriften erlassen werden, die algorithmische Transparenz, Datenschutz und Rechenschaftspflicht gewährleisten. Beispielsweise sollten KI-Systeme verpflichtet werden, klare und verständliche Erklärungen für ihre Entscheidungen zu liefern – wie sie beispielsweise in Explainable AI zu finden sind –, damit sowohl Nutzer als auch Regulierungsbehörden überprüfen können, wie die Schlussfolgerungen zustande gekommen sind.
Dies ist besonders wichtig bei der Erkennung von Desinformation, wo Fehlalarme – die fälschliche Einstufung wahrheitsgemäßer Inhalte als Desinformation – schwerwiegende Folgen für die Meinungsfreiheit und die Glaubwürdigkeit der Medien haben könnten. Regulierungsrahmen sollten auch Schutzmaßnahmen für KI-Systeme vorsehen, um diese Risiken zu vermeiden.
Die Länder bewegen sich in Richtung verantwortungsvollerer digitaler Räume. In der Schweiz bereitet das Bundesamt für Kommunikation (BAKOM) eine Vernehmlassung zu einem Gesetzesentwurf für Anfang 2025 vor: das neue Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (KomPG/LPCom).
Das Gesetz zielt darauf ab, der Schweizer Bevölkerung mehr Rechte gegenüber den bedeutenden Kommunikationsplattformen zu verschaffen und ihr die Möglichkeit zu geben, Transparenz einzufordern. In ähnlicher Weise bietet das EU-Gesetz über digitale Dienste ein Modell, um Plattformen für die Verhinderung der Verbreitung von Desinformation durch transparente und robuste Inhaltsmoderation verantwortlich zu machen.
Um angesichts der sich wandelnden Bedrohungen durch Desinformation Resilienz aufzubauen und demokratische Werte zu schützen, kann die Schweiz die digitale Kompetenz ihrer Bevölkerung sowie die Zusammenarbeit zwischen Wirtschaft, Wissenschaft, Zivilgesellschaft und Regierung verbessern.
KI wird in Kombination mit menschlicher Aufsicht und transparenten Regulierungsmaßnahmen ein wesentlicher Bestandteil dieses einheitlichen Ansatzes sein.