Ehrlichkeit in den Sozialen Medien – wie echt ist das Internet noch?

26. Januar 2026

von Lea Hanke

Die Veranstaltung der Ofa am 20.01. zum Thema „Ehrlichkeit in den sozialen Medien“ zeigte sehr eindrücklich, wie nah Faszination und Gefahr digitaler Technologien inzwischen beieinander liegen. Im Mittelpunkt stehen zwei Perspektiven: die technische Seite von KI-generierten Inhalten und beispielweise Faktenchecks sowie die Frage, wie wir persönlich verantwortungsvoll mit Social Media umgehen können. 

Die Ofa-Fraktion lud ins Caffè Cuore ein, in dem Zuschauer*innen miteinander und mit zwei Gästen ins Gespräch kamen. Als Referent*innen haben wir Softwareentwickler Michael Ehrich sowie Content-Creatorin und Marketing-Soul Patricia Betz eingeladen. Ehrich entwickelte mit seiner Agentur digitale Produkte und ein automatisiertes Faktenchecker-Tool, während Betz für ungefilterte, authentische Kommunikation ohne „Verkaufsmasche“ steht. 

Die Mischung aus Fachinput, Live-Beispielen und offener Diskussion sorgte dafür, dass sich das Thema nicht abstrakt, sondern lebensnah anfühlte – bis hin zum eigenen Instagram-Feed. 

Was ist noch echt? KI-Bilder und -Videos im Alltag

Im ersten Teil führte Ehrich mit einer Bildshow vor, wie schwer es inzwischen ist, echte von künstlich erzeugten Inhalten zu unterscheiden. Das Publikum sollte per Handzeichen raten, ob gezeigte Fotos KI-generiert sind, oder nicht – mit vielen Fehleinschätzungen.

Auf dem ersten Blick ist dieses Bild glaubwürdig jedoch wird schnell durch die fehlerhaften Beschriftungen klar, dass es KI-generiert wurde

Ein Bild, was auf dem ersten Blick erst zweifelhaft wirkt, ist tatsächlich echt: lediglich eine optische Illusion.

Ehrich machte klar, dass sich diese Qualität inzwischen mit handelsüblicher Hardware und frei verfügbarer erreichbarer Software erreichen lässt. Bei Videos zeigte er reale Clips (z.B. Zebras, die eine Straße entlangrennen oder ein Hai, der aus dem Wasser heraus auf ein Boot „springt“), die vom Publikum oft für KI gehalten wurden, und umgekehrt KI-Videos, die echt Naturaufnahmen zu sein scheinen. 

Ein Beispiel beschäftigte die Runde besonders: Ein KI-generierter TikTok-Account, in dem eine Bergsteigerin vom Tod ihres Hundes in den Bergen erzählt und damit Millionen Views und Kommentare auslöst – obwohl es weder Hund noch Wanderung gab. Hier wurde sehr greifbar, wie leicht Emotionen gezielt instrumentalisiert werden können. 

Werkzeuge gegen Desinformationen: Von Rückwärtssuche bis Faktenchecker 

Es wurde viel von KI-generierten Inhalten gesprochen, jedoch stand noch die Frage offen, wie man solche Inhalte erkennen kann und was es für Möglichkeiten dahingehend gibt. „Was kann man überhaupt noch tun, wenn bloßes Hinschauen nicht mehr reicht?“ war die Frage von Ehrich. Seine Antwort darauf war zweigleisig: digitale Werkzeuge nutzen und gleichzeitig die eigene Medienkompetenz stärken. 

Es wurden mehrere praktische Tools vorgestellt: 

  1. Rückwärts-Bildersuche: Mit Google Lens lässt sich beispielsweise prüfen, wo ein Bild schon früher im Netz aufgetaucht ist. Eine leichte Methode, um alte Fotos in neuen Kontexten zu entlarven. 
  2. Wasserzeichen wie Google Synth: Inhalte, die von Googles KI erzeugt werden, tragen ein unsichtbares Wasserzeichen, dass auch in Bildschirmaufnahmen erhalten bleibt und von der KI wieder erkannt werden kann.
  3. Content Credentials: Metadaten-Standards von Anbietern wie Adobe, Microsoft oder OpenAI, die sichtbar machen, woher ein Bild stammt, welches Tool genutzt wurde und ob KI beteiligt war. Dies ist allerdings nur möglich, wenn die Originaldatei vorhanden ist. 

Ehrich betonte aber, dass all diese Indikatoren, also Textfehler, unlogische Fluchtpunkte, wiederkehrende Pixelmuster, einzeln nie als sicher eingestuft werden-, aber im Zusammenspiel bewertet werden können. Spannend war die Geschichte eines 17-jährigen US-Entwicklers, der ein System zur KI-Erkennung programmiert, das nicht auf Trainingsdaten, sondern auf Algorithmen basiert und so auch neue Modelle mit hoher Trefferquote erkennen soll. 

Parallel dazu wurde von Ehrich ein Faktenchecker vorgestellt, der von seinem Team entwickelt wurde. Dieser zerlegt Artikel in Kontexte, identifiziert überprüfbare Behauptungen, sucht systematisch nach Belegen und Widerlegungen, analysiert Ton, Emotionalität und mögliche Narrative und schaut auf die Glaubwürdigkeit von Quellen und Autoren. Wichtig war ihm, dass das Tool nicht „die Wahrheit verkündet“, sondern Transparenz schafft und Nutzern hilft, selbst besser einzuordnen. 

Michael Ehrich bei seiner Powerpoint-Präsentation: Gerade stellt er AI-Influencer*innen vor – die größte hierbei besitzt über 8,5 Millionen Follower.

Wahrheit, Narrative und Vertrauen

Im zweiten Teil der Veranstaltung verschob sich der Fokus: Weg von der Technik, hin zu der Frage, wie wir mit Wahrheit und Ehrlichkeit überhaupt umgehen. In der Diskussion tauchten mehrere Motive auf: 

Narrative statt reiner Fakten

Mehrere Beiträge machten deutlich, dass „Fakten“ je nach Einbettung sehr unterschiedliche Geschichten erzählen können. Medien verfolgen oft eigene Narrativen, die Fakten auswählen, gewichten und deuten. Wichtig: Ein Narrativ enthält Fakten, ist aber selbst kein Fakt – diese Differenz wurde immer wieder betont. 

Eigenverantwortung

Teilnehmende erinnerten daran, dass Menschen schon früher mit Gerüchten, Propaganda und einseitiger Berichterstattung umgehen mussten. Auch heute bleibt es Aufgabe jedes Einzelnen, sich einzuarbeiten, Quellen zu vergleichen und zu schauen, wie plausibel einzelne Beiträge sind, die man findet. Zwar geht das mit einer gewissen Anstrengung Hand in Hand, jedoch ist es trotzdem wichtig, selbst auch nachzuforschen. 

Vertrauensverlust

Mehrere Stimmen beschrieben ein tiefes Misstrauen gegenüber Medien, Politik und digitalen Inhalten, das durch die Künstliche Intelligenz noch verstärkt wird. Manche erklären, sie würden nur noch glauben, was sie selbst erlebt hätten. Ein Standpunkt, den andere als praktisch unmöglich kritisieren, etwa bei internationalen Ereignissen oder Naturkatastrophen. 

Interessant war die Diskussionen über Faktenchecker selbst: Einige verwiesen auf Fälle, in denen „Faktenchecks“ in politischen Debatten bestimmte Narrative gestützt hätten, die später in Frage standen. Damit wurde deutlich, dass auch Faktenchecker in gesellschaftliche und politische Konflikte eingebettet sind und Vertrauen immer eine persönliche Entscheidung bleibt.

Patricia Betz vor der Powerpoint Präsentation.

Ehrlichkeit in Social Media: Zwischen rosa Lüge und Manipulation

Die Frage nach „Ehrlichkeit“ in sozialen Medien wurde sehr konkret, als es um den eigenen Umgang mit Darstellung und KI-Einsatz ging. Kleine „rosa Lügen“, etwa vorteilhafte Selbstdarstellung, wurden als menschlich beschrieben. Solange man Verantwortung übernimmt und hinter den Aussagen steht, sahen viele darin keinen Skandal, sondern Normalität. 

Problematisch wird es aus Sicht der Runde dort, wo KI massenhaft Inhalte erzeugt, die ungeprüft und anonym verbreitet werden. Beispielweise für politisches Targeting, Scam-Anrufe mit geklonter Stimme oder manipulativen Kampagnen. Besonders gefährlich sei, wenn Urheber sich aus der Verantwortung ziehen und Inhalte ohne eigene Prüfung ins Netz stellen. Als fair gilt, wenn man KI als Werkzeug nutzt, aber transparent damit umgeht. 

Ein weiterer Diskussionsstrang drehte sich um Plattformen wie X (ehemals Twitter), die mit Bots und Trolls durchsetzt wird. Da das Geschäftsmodell vieler Netzwerke auf maximaler Verweildauer und Interaktion basiert, haben sie strukturell wenig Interesse daran, Hass, Desinformationen oder künstliche Kontroversen konsequent zu reduzieren. 

Gleichzeitig wurde betont, dass Social Media auch enorme Chancen für Verbindung, Austausch und Partizipation bietet. Die Herausforderung besteht darin, diese Potenziale zu nutzen, ohne naiv zu werden. 

Was bleibt: Selbst denken, Werkzeuge nutzen, Verantwortung übernehmen 

Am Ende blieb kein apokalyptisches, sondern ein wachsames Fazit: Technisch wird es immer schwieriger, Echtes von Künstlichem mit bloßem Auge zu unterscheiden, und KI wird in den nächsten Jahren noch perfekter werden. 

Deshalb betonten Betz und Ehrich, dass Social Media niemals als primäre Nachrichtenquelle dienen sollte. Auch digitale Hilfsmittel wie die Rückwärtssuche, Wasserzeichen- und Faktenchecker können helfen, ersetzen aber nicht das eigene Urteil. Ehrlichkeit in Social Media beginnt bei der bewussten Entscheidung, wofür man seine Reichweite nutzt, wie transparent man über KI-Einsatz ist und ob man sich der manipulativen Mechaniken von Plattformen bedient oder ihnen etwas entgegensetzt.

Damit wurde der Diskussionsabend der Ofa zu einem dichten Abend über Technologie, Politik und Ethik – und zu einer Einladung, nicht in Panik zu verfallen, sondern als Nutzer*innen aktiv an einer Kultur der digitalen Ehrlichkeit mitzuwirken. 

Patricia Betz, Michael Ehrich und Annette Schaper-Herget am Ende des Diskussionsabend.



WordPress Cookie Hinweis von Real Cookie Banner