Ein Blick auf ein Handy mit den verschiedenen Social Media Apps, wie Facebook, Instagram, WhatsApp. Foto: PA Wire/dpa/Yui Mok

Desinformationen im Internet sind ein großes Problem für Demokratie und Gesellschaft – dem stimmt eine Mehrheit der Deutschen zu. Doch die Einigkeit ist trügerisch, wie eine aktuelle Studie weiter zeigt.

Die Verbreitung von Desinformationen im Internet über sogeannte Fake News und Deepfakes wird einer aktuellen Studie zufolge von 81 Prozent der Deutschen als Gefahr für die Demokratie und den gesellschaftlichen Zusammenhalt angesehen. Eine überwiegende Mehrheit der Bevölkerung befürchtet Wahlbeeinflussung und Spaltung der Gesellschaft. So lautet das Ergebnis einer am Mittwoch (28. Februar) von der Bertelsmann-Stiftung in Gütersloh veröffentlichten Studie.

Wo Fake News und Deepfakes verbreitet sind

  • Am häufigsten nehmen die Befragten Desinformationen dabei im Zusammenhang mit kontroversen Themen wie Einwanderung, Gesundheit, Krieg und Klimakrise wahr.
  • Die sozialen Medien sind dabei der Ort, an denen Befragte Desinformationen am häufigsten wahrnehmen, gefolgt von Blogs und Messenger-Diensten.
  • Zwei Drittel vermuten dabei Protest- und Aktivistengruppen als Quelle der Falschinformationen, gefolgt von Bloggern und Influencern (60 Prozent), ausländischen Regierungen (53 Prozent) und Politikern sowie Parteien aus Deutschland (50 Prozent).

Für die nach Angaben der Bertelsmann-Stiftung repräsentative Stdie hat das Meinungsforschungsunternehmen pollytix zwischen dem 4. und 17. Oktober 2023 online 5055 Menschen über 16 Jahren in Deutschland befragt.

So groß ist das Vertrauen der Bürger in Medien und Politik

Das Bewusstsein für die Risiken absichtlicher Falschinformationen für die Demokratie sei in weiten Teilen der Bevölkerung geschärft, bilanzieren die Studienautoren. Was jedoch von den Befragten als absichtliche Falschinformationen im Netz wahrgenommen wird und welche Urheber und Motive sie dahinter vermuten, hängt auch vom Vertrauen der Befragten in die Medienlandschaft und Politik insgesamt zusammen.

  • Desinformationen werden etwa nach Ansicht der Befragten mit hohem Medienvertrauen vor allem mit dem Ziel verbreitet, das Vertrauen in die Politik und Demokratie zu schwächen (93 Prozent)
  • Menschen mit niedrigem Medienvertrauen glauben dies deutlich seltener (68 Prozent).
  • Befragte dieser Gruppe glauben dagegen zu 91 Prozent, dass Falschinformationen verbreitet würden, um von Skandalen und politischer Unfähigkeit abzulenken, was nur 63 Prozent der Menschen mit hohem Medienvertrauen annehmen.

Niedriges Medienvertrauen bei AFD-Wählern

  • Die Studie sortiert ein knappes Drittel der Befragten zur Gruppe mit niedrigem Medienvertrauen. In dieser sind AfD-Wähler überproportional vertreten, die Unzufriedenheit mit der Demokratie ist hier ebenso verbreitet.
  • Hohes Medienvertrauen ist bei 43 Prozent der Befragten ausgeprägt.
  • Die Übrigen werden der Gruppe mit mittlerem Medienvertrauen zugeordnet.
  • Belege für ähnliche Polarisierungen finden sich an mehreren Stellen der Untersuchung. So glauben Grünen-Wähler tendenziell eher, Manipulationen kämen von rechts, AfD-Wähler sehen häufiger das linke Spektrum als Urheber von Desinformationen.

Misstrauen und Verunsicherung nehmen zu

„Die Umfrageergebnisse zeigen auch ein wachsendes Misstrauen gegenüber Medien und Politik bei gleichzeitiger Verunsicherung“, sagt Cathleen Berger, Mitautorin der Studie und Digitalexpertin bei der Bertelsmann-Stiftung. „Wenn sich immer mehr Menschen aus dem Diskurs zurückziehen, besteht die Gefahr einer zunehmenden Polarisierung der Gesellschaft“, befürchtet sie. Trotz Aufmerksamkeit für das Phänomen fehle vielen Menschen die Orientierung, wie sie auf Manipulationen reagieren können, so Berger weiter.

Politik, Medien und Zivilgesellschaft müssten hier aktiver werden. „Wir brauchen bessere Vorgaben. Die sozialen Netzwerke sollten verpflichtet sein, Faktenchecks und Vertrauensbewertungen einzubinden.“ Außerdem müsse es erleichtert werden, Informationen zu überprüfen und zu melden.

Info: Wichtige KI-Begriffe: Neuronen, neuronale Netze, Deepfakes

  • Künstliche Intelligenz: Diese - auch artifizielle Intelligenz (AI, englisch: Artificial Intelligence) genannt – ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Nach Angaben des Bundesamtes für Sicherheit in der Informationstechnik existieren Verfahren zur Manipulation von Medieninhalten bereits seit langem. Während die Verfahren etwa zur Bildfälschung noch vor wenigen Jahren sehr aufwendig waren, ist dies heute durch Methoden der KI sehr viel effizienter, einfacher und schneller möglich.
  • Künstliche tiefe neuronale Netze: Man spricht in diesem Zusammenhang auch von künstlichen tiefen neuronalen Netzen, umgangssprachlich Deepfakes genannt (ein Kofferwort aus: Deep Learn/Tiefes Lernen und Fake/Fälschung). Dabei werden realistisch wirkende Medieninhalte in Form von Video/ Bild, Audio und Text durch Techniken der künstlichen Intelligenz abgeändert, erzeugt oder verfälscht.
  • Neuronen: Künstliche neuronale Netze (KNN, englisch: Artificial Neural Network/ANN) haben ihr biologisches Vorbild in den Nervenzellen des Gehirns - den Neuronen. Im menschlichen Gehirn gibt es schätzungsweise 86 Milliarden Neuronen. Ihr Aufgabe ist es, Reize aus der Umwelt oder aus dem Inneren des Körpers an das Gehirn zu melden und von diesem Befehle entgegenzunehmen.
  • Neuroinformatik: Netze aus künstlichen Neuronen werden insbesondere von der Neuroinformatik untersucht, einem zentralen Zweig zur Erforschung Künstlicher Intelligenz. Künstlich neuronale Netze sind in der Lage, große Mengen an sogenannten unstrukturierten Daten auszuwerten und Muster in ihnen zu finden. Zu unstrukturierten Daten gehören Bilder, Videos oder Töne, also alle jene Flut an Daten, die im Alltag in großer Zahl produziert werden.
  • Deepfakes: Mit KI-Software kann man immer realistischere Fotos aus Text-Vorgaben erzeugen. Inzwischen werden auf diese Weise auch immer häufiger Videos generiert. So stellte der ChatGPT-Entwickler OpenAI jüngst seine Video-Software Sora vor. Die sichtbare Markierung, die auf eine KI-Herkunft hinweist, ist klein und oft schwer zu sehen. Vor allem Audio-Fakes gelten als großes Problem, weil es weniger Möglichkeiten gibt, sie anhand von Fehlern oder Kennzeichen zu erkennen. Es hat bereits Fälle gegeben, in denen solche Aufnahmen für den sogenannten Enkel-Trick angewendet wurden. Damit versuchen Kriminelle, Geld oder Wertsachen im Namen von Verwandten zu erbeuten (mit dpa-Agenturmatarial).
 
 
3D-Darstellung, wie die Kommunikation innerhalb der Nervenzellen im Gehirn funktioniert. Foto: Imago/Panthermedia
  • Neuroinformatik: Netze aus künstlichen Neuronen werden insbesondere von der Neuroinformatik untersucht, einem zentralen Zweig zur Erforschung Künstlicher Intelligenz. Künstlich neuronale Netze sind in der Lage, große Mengen an sogenannten unstrukturierten Daten auszuwerten und Muster in ihnen zu finden. Zu unstrukturierten Daten gehören Bilder, Videos oder Töne, also alle jene Flut an Daten, die im Alltag in großer Zahl produziert werden (mit dpa-Agenturmatarial).