Zum Hauptinhalt springen
AIChatbotChatGPTInformatikKünstliche Intelligenz

Künstliche Intelligenz und Realität: Wie man erkennt, was online seriös ist.

durch 13. Februar 2026Keine Kommentare

Künstliche Intelligenz und Realität: Warum wir nicht mehr wissen, was wahr ist

Künstliche Intelligenz verändert unsere Beziehung zur digitalen Realität grundlegend. Sie macht es zunehmend schwieriger, im Internet zwischen Realität und künstlichen Inhalten zu unterscheiden, was direkte Auswirkungen auf Information, Politik, Werbung und Wirtschaft hat.

Alle Maßnahmen zur Unterscheidung zwischen realen und KI-generierten Online-Inhalten stoßen an ihre Grenzen. Vom C2PA-Standard bis hin zu den neuen europäischen Verordnungen ist das Bild uneinheitlich, und große Technologieunternehmen haben keinen wirklichen wirtschaftlichen Anreiz, die Ursache des Problems anzugehen. Die Folge: Die Last, Authentizität zu erkennen, lastet zunehmend auf den Schultern von Nutzern, Unternehmen und der Gesellschaft.

Trotz dieser kritischen Lage gibt es Hoffnungsschimmer. Neue technische Standards, Gesetze wie der AI Act und der Digital Services Act sowie ein veränderter kultureller Umgang mit der Quellenprüfung können den Weg für ein vertrauenswürdigeres digitales Ökosystem ebnen. Für alle, die im digitalen Marketing und in der Kommunikation tätig sind, ist es daher unerlässlich, diesen Wandel zu verstehen.

Künstliche Intelligenz und Realität: Wie KI das Vertrauensverhältnis zu Bildern gebrochen hat

Jahrelang ermöglichte uns das Internet, in Echtzeit über das Weltgeschehen informiert zu bleiben. Dieses System basierte jedoch auf einer impliziten Annahme: Bilder und Videos, obwohl manipulierbar, stellten weitgehend eine verlässliche Dokumentation der Realität dar. Mit generativer künstlicher Intelligenz wurde dieser Vertrauenspakt untergraben.

Die Flut an KI-generierten Inhalten in sozialen Medien und digitalen Plattformen zerstört die jahrhundertealte Verbindung zwischen unseren Augen und den Bildern, die sie anzeigen. Hyperrealistische Deepfakes, synthetische Fotos, geklonte Audioaufnahmen: Alles lässt sich innerhalb von Minuten erstellen oder verändern, oft ohne klare Kennzeichnung. Die Folge: Wir können uns nicht länger darauf verlassen, dass “Sehen heißt Glauben” gilt.

Das Problem beschränkt sich nicht nur auf politische Desinformation oder virale Memes. Alle Formen visueller Kommunikation sind betroffen: Dokumentarfilme, Reportagen, Werbung, Markencontent und institutionelle Propaganda. Wenn selbst Akteure wie das Weiße Haus KI-generierte oder KI-manipulierte Bilder in sozialen Medien verbreiten, ohne dies klar zu kennzeichnen, wird es für die Öffentlichkeit noch schwieriger, zwischen Dokumentation und Inszenierung, zwischen Berichterstattung und Erzählung zu unterscheiden.

C2PA-Zertifikate und Anti-Deepfake-Siegel: Warum sie nicht mehr ausreichen

Um dieses Problem anzugehen, lag der Fokus in den letzten Jahren verstärkt auf Herkunftskennzeichnungen und Zertifikaten für digitale Inhalte. Der wichtigste Ansatz ist der C2PA-Standard (Coalition for Content Provenance and Authenticity), der von Unternehmen wie Adobe, Microsoft, OpenAI, Meta und vielen anderen gefördert wird, mit dem Ziel, ein System zu schaffen, das … Inhaltsanmeldeinformationen.

C2PA funktioniert, indem es die Historie einer Datei in einem Metadaten-Manifest speichert: Wer hat sie erstellt? Auf welchem Gerät wurde sie verwendet? Welche Änderungen wurden vorgenommen? Welche Tools kamen zum Einsatz? Im Idealfall läuft es folgendermaßen ab: Man nimmt ein Foto mit einer kompatiblen Kamera oder einem Smartphone auf, öffnet das Bild in einer kompatiblen Software (z. B. Photoshop), jede Änderung wird im C2PA-Manifest protokolliert, die Datei wird mit diesen Informationen übertragen, und die Plattformen, die sie veröffentlichen, zeigen ein Informationsfeld mit Angaben zum Autor, den verwendeten Apps und dem Einsatz von KI-Tools an.

Technisch gesehen ist C2PA eine Weiterentwicklung der EXIF-Metadaten, ergänzt durch kryptografische Signaturen, die Manipulationen erschweren. Das Projekt, das von einer Stiftung mit über 500 beteiligten Unternehmen (darunter Google, Sony, die BBC und Amazon) getragen wird, entstand als Rückverfolgbarkeitstool für Fotografen, Medienschaffende und Kreative und wurde schnell als Antwort auf die zunehmende Verbreitung von KI-Inhalten vorgeschlagen.

Künstliche Intelligenz macht jedoch deutlich, dass “Stempel” nicht die einzige Lösung sind. C2PA weist tatsächlich zwei strukturelle Schwächen auf: Es funktioniert nur dann zuverlässig, wenn der Urheber der Inhalte nachverfolgt werden möchte, und die Zugangsdaten lassen sich bei Konvertierungen, Uploads oder der Weiterverarbeitung relativ leicht entfernen oder beschädigen. Darüber hinaus bricht die Kette in einem entscheidenden Schritt: der Verbreitung in sozialen Netzwerken, Videoplattformen und Messenger-Apps, wo die Einhaltung der Metadatenrichtlinien sehr uneinheitlich ist.

Um das Thema Deepfakes und Desinformation genauer zu beleuchten, ist es hilfreich, die Analysen von … zu konsultieren. Wikipedia zum Deepfake-Phänomen und die von der’OECD.

Große Technologiekonzerne, versteckte Wasserzeichen und divergierende Strategien

Die Gestaltung des Verhältnisses zwischen künstlicher Intelligenz und Realität ist derzeit fragmentiert, was unter anderem an den unterschiedlichen Strategien der großen Technologiekonzerne liegt. Google hat SynthID entwickelt, ein “verstecktes” Wasserzeichensystem, das Signale direkt in die von seinen Modellen generierten Inhalte (Bilder, Audio, Video, Text) einfügt. Google bietet außerdem einen “Detektor” und in seinen Gemini-Assistenten integrierte Tools an, um das Vorhandensein von SynthID-Wasserzeichen zu überprüfen.

Einige Google-Produkte kombinieren SynthID- und C2PA-Metadaten, doch das löst das Interoperabilitätsproblem nicht: Andere Anbieter sind weder verpflichtet noch technisch in der Lage, diese Signale zu lesen. TikTok hingegen kündigte 2024 die Einführung von C2PA an, um KI-generierte Inhalte anderer Plattformen automatisch zu erkennen und zu kennzeichnen, und führte 2025 ein “KI-erstellt”-Wasserzeichen sowie Kontrollmechanismen ein, um die Präsenz KI-generierter Inhalte im Feed zu reduzieren.

YouTube verwendet zwar Textkennzeichnungen wie “KI-generierte Inhalte”, doch deren Anwendung ist lückenhaft: Viele synthetische Videos entgehen der automatischen Kennzeichnung, und oft wird erst nach konkreten Meldungen reagiert. X (ehemals Twitter) beendete seine Zusammenarbeit mit C2PA nach der Übernahme durch Elon Musk, während der Zustrom synthetischer Inhalte und Fehlinformationen zugenommen hat. Apple hält sich vorerst weitgehend zurück; es bestehen zwar informelle Kontakte zur C2PA-Koalition, aber keine öffentlichen Ankündigungen zu Standards oder Wasserzeichen. Viele Hersteller professioneller Kameras (Sony, Nikon, Leica) integrieren Content Credentials erst in ihre neuesten Modelle und lassen damit einen großen Teil der Nutzerbasis außen vor.

Das Ergebnis ist ein Flickenteppich: einige fortschrittliche Lösungen, viele Lücken und keine einheitliche Abdeckung. Im Hintergrund steht ein klarer Interessenkonflikt: Dieselben Unternehmen, die am meisten von KI profitieren, kontrollieren auch die wichtigsten Kanäle für die Verbreitung von Inhalten und haben kaum ein wirtschaftliches Interesse daran, alles klar zu kennzeichnen, was den wahrgenommenen Wert von Inhalten und KI-Investitionen mindern könnte.

Soziale Wahrnehmung, Deepfakes und die Grenzen der Transparenz allein

Ein weiterer entscheidender Punkt im Verhältnis zwischen künstlicher Intelligenz und Realität ist die gesellschaftliche Wahrnehmung des Labels “KI-generiert”. Für viele Kreative bedeutet dieses Label eine Abwertung ihrer Arbeit; für Marken kann es auf minderwertige Produkte hindeuten; für das Publikum signalisiert es oft weniger authentische und weniger menschliche Inhalte. Es ist daher nicht verwunderlich, dass viele Kreative verärgert sind, wenn eine Plattform Inhalte als “KI” kennzeichnet, die aus ihrer Sicht lediglich retuschierte Fotos oder Videos sind, die mit gängigen digitalen Werkzeugen bearbeitet wurden.

Die Grenze zwischen KI-generierten und nicht-KI-generierten Inhalten verschwimmt zunehmend. Smartphones nehmen automatisch mehrere Fotos auf und fügen sie zusammen, um das beste Ergebnis zu erzielen; Bearbeitungssoftware nutzt neuronale Netze zur Rauschunterdrückung, Farbkorrektur und automatischen Masken. Ein ausgetauschter Himmel, ein weichgezeichnetes Gesicht, eine optimierte Stimme: Wo genau beginnt generative KI? Ohne einen grundlegenden Konsens darüber, ab welchem Grad algorithmischer Eingriff Inhalte als “KI-generiert” gelten, besteht die Gefahr, dass jede Bezeichnung entweder zu aggressiv oder zu nachsichtig ist.

Psychologische Studien zeigen zudem, dass Transparenz allein nicht ausreicht. Forscher wie Simon Clark und Stephan Lewandowsky (Universität Bristol) führten Experimente mit über 600 Teilnehmern in den USA und Großbritannien durch: Viele vertrauten weiterhin dem Inhalt eines Deepfake-Videos, selbst nachdem sie ausdrücklich vor dessen Fälschung gewarnt worden waren. Dies deutet darauf hin, dass der bloße Hinweis “Dies ist ein Deepfake” die emotionale und kognitive Wirkung der Bilder nicht aufhebt, was wichtige Konsequenzen für Gesetzgeber und Regulierungsbehörden im Bereich Online-Inhalte hat.

Die Botschaft verschiedener Branchenkenner ist eindeutig: Ein kollektiver Mentalitätswandel ist notwendig. Angesichts künstlicher Intelligenz müssen wir uns weniger auf einzelne Informationen und viel mehr auf den Kontext, die Quellen und Querverweise verlassen. Eine methodische Skepsis, die digitale Kompetenz voraussetzt, aber für alle in Marketing, Kommunikation und Wirtschaft zunehmend unerlässlich ist.

AI Act, DSA und neue EU-Regeln für Kennzeichnungen und Deepfakes

Europa hat versucht, das Verhältnis zwischen künstlicher Intelligenz und Realität vor allem durch Gesetzgebung zu regeln, mit zwei Hauptinstrumenten: dem KI-Gesetz (EU-Verordnung 2024/1689, in Kraft getreten im August 2024) und dem Gesetz über digitale Dienste (DSA), das im Februar 2024 in Kraft trat. Das KI-Gesetz ist derzeit der weltweit fortschrittlichste Regulierungsversuch zur Steuerung synthetischer Inhalte.

Abschnitt 50(4) des KI-Gesetzes schreibt eine eindeutige Kennzeichnungspflicht für Audio-, Video-, Text- oder Bildinhalte vor, die mithilfe von KI generiert oder manipuliert wurden und “realistischen Personen, Objekten, Orten, Organisationen oder Ereignissen eindeutig ähneln”. Ausnahmen gelten, wenn aus dem Kontext klar hervorgeht, dass es sich um synthetische Inhalte handelt. Die Bußgelder können bis zu 15 Millionen Euro oder 31,3 Billionen Billionen Euro des weltweiten Umsatzes betragen. Die Kennzeichnungspflicht betrifft jedoch nicht die Urheber, sondern die Verbreiter der Inhalte, die häufig außerhalb der EU tätig sind oder Open-Source-Modelle verwenden, die nicht der Verordnung unterliegen.

Artikel 6 und Anhang III stufen bestimmte Verwendungen von Deepfakes als risikoreich ein, beispielsweise zur biometrischen Identifizierung oder in kritischen Bereichen wie Wahlen und Justiz, und schreiben strenge Dokumentations- und Rückverfolgbarkeitsanforderungen vor. Die meisten “gewöhnlichen” Deepfakes – Memes, allgemeine Desinformation, nicht einvernehmliche Pornografie – fallen jedoch nicht unter diese strengeren Kategorien.

Das Gesetz über digitale Dienste führt eine zweite Ebene ein: Transparenzanforderungen für KI-generierte Werbung, systemische Risikobewertungen für sehr große Online-Plattformen (VLOPs) sowie Melde- und Handlungsmechanismen für Inhalte wie manipulierte intime Bilder. Jährliche unabhängige Prüfungen könnten dazu beitragen, Plattformen zur Einführung einheitlicherer technischer Standards zu bewegen, darunter C2PA, Wasserzeichen und KI-basierte forensische Analysetools.

Es besteht jedoch weiterhin eine strukturelle Einschränkung: Das AI Act und das DSA zielen primär auf seriöse Akteure ab, während diejenigen, die Desinformation in böser Absicht verbreiten, möglicherweise von Servern außerhalb der EU, die Regeln tendenziell bewusst ignorieren. Ohne technische Interoperabilitätsanforderungen besteht die Gefahr einer weiteren Fragmentierung: Jede Plattform verwendet ihr eigenes Kennzeichnungssystem, wodurch Nutzer (und Marketingfachleute) in einem weiterhin unübersichtlichen Ökosystem verbleiben. Für eine aktuelle Analyse der europäischen Regulierungen konsultieren Sie bitte die offizielle Website. Europäische Kommission für KI.

Künstliche Intelligenz und Realität: Auswirkungen auf Marketing und Wirtschaft

Das neue Gleichgewicht zwischen künstlicher Intelligenz und Realität ist nicht nur eine ethische oder rechtliche Frage: Es hat direkte Auswirkungen auf digitale Marketingstrategien, Kundenerlebnisse und Markenvertrauen. Unternehmen, die generative KI zur Erstellung von Bildern, Videos oder Texten einsetzen, müssen neben der Produktionseffizienz auch die Auswirkungen dieser Entscheidungen auf die Wahrnehmung von Authentizität berücksichtigen.

In einer von synthetischen Inhalten geprägten Landschaft werden Marken, die ihren Einsatz von künstlicher Intelligenz transparent kommunizieren und gleichzeitig die Nachvollziehbarkeit und Überprüfbarkeit ihrer Botschaften gewährleisten, einen Wettbewerbsvorteil haben. Man denke nur an politische Kampagnen oder Krisenkommunikation: Ein überzeugender Deepfake kann den Ruf eines Unternehmens innerhalb weniger Stunden schädigen. Daher sind interne Prozesse und Überwachungsinstrumente unerlässlich, um Falschmeldungen schnell zu erkennen, zu melden und darauf zu reagieren.

Für Marketingautomatisierung bedeutet dies, Funnels und Customer Journeys neu zu überdenken. Messaging-Plattformen wie WhatsApp Business entwickeln sich zu Schlüsselkanälen, um eine direkte und nachvollziehbare Beziehung zu Kunden wiederherzustellen. Videoinhalte in sozialen Medien können hinterfragt werden; ein persönliches Gespräch, das mithilfe professioneller Tools verfolgt und gesteuert wird, kann Vertrauen und Konversionen stärken. Unternehmen müssen KI verantwortungsvoll integrieren und dabei Automatisierung und menschliche Kontrolle, insbesondere in sensiblen Kommunikationsphasen, in Einklang bringen.

Eine weitere Herausforderung ist die Segmentierung: Nutzer, die zunehmend mit Fehlinformationen und Deepfakes konfrontiert werden, werden misstrauischer und selektiver. Content-Marketing-Strategien müssen sich daher auf Beweise, verifizierbare Fallstudien, nachvollziehbare Erfahrungsberichte und eigene Kanäle (Newsletter, Communities, Direktchats) konzentrieren, über die Marken im Vergleich zum Informationsrauschen offener sozialer Medien eine höhere Zuverlässigkeit gewährleisten können.

Wie SendApp bei künstlicher Intelligenz und Realität helfen kann

In diesem komplexen Umfeld benötigen Unternehmen Tools, die ihnen ein transparentes, nachvollziehbares und skalierbares Management der digitalen Kommunikation ermöglichen. SendApp wurde speziell für die professionelle Nutzung von WhatsApp Business entwickelt und kombiniert auf verantwortungsvolle Weise Automatisierung, Kontrolle und Integration mit künstlicher Intelligenz.

Mit SendApp Official, Unternehmen können die offiziellen WhatsApp-APIs nutzen, um zuverlässige Messaging-Prozesse mit genehmigten Vorlagen und nachvollziehbarer Kommunikation zu erstellen. Dies schafft einen direkten und verifizierbaren Kanal zu ihren Kunden und ergänzt die öffentlichen sozialen Medien, in denen Deepfakes und unkontrollierte synthetische Inhalte kursieren.

SendApp Agent Es ermöglicht Ihnen, Teamkonversationen auf WhatsApp übersichtlich zu verwalten, Chats zuzuweisen, die Performance zu überwachen und – wo sinnvoll – KI-gestützte automatische Antworten zu integrieren, jedoch stets unter menschlicher Aufsicht. In Zeiten, in denen KI Nachrichten generieren kann, ist eine zentrale Steuerungsebene unerlässlich, um Konsistenz und Authentizität in den Kundenbeziehungen zu gewährleisten.

Mit SendApp Cloud, Unternehmen können fortschrittliche Automatisierungen entwickeln: segmentierte Kampagnen, gezielte Kundenbindungssequenzen, Erinnerungen nach dem Kauf und umfassenden Kundensupport. Durch die strukturierte Integration von KI lassen sich Mikroaufgaben (häufige Antworten, Weiterleitung von Anfragen) automatisieren, wodurch Zeit für wertschöpfendere Tätigkeiten wie die Prüfung sensibler Inhalte und das Management von Reputationskrisen frei wird.

Das Ziel ist klar: Künstliche Intelligenz soll Effizienz und Personalisierung verbessern, ohne die Kontrolle über die Inhalte der Kundennachrichten zu verlieren. SendApp unterstützt Unternehmen beim Aufbau robusterer Kommunikationsökosysteme, in denen Kennzeichnung, Nachverfolgbarkeit und menschliche Kontrolle Hand in Hand gehen. Wer seine WhatsApp Business-Strategie angesichts dieser Veränderungen überdenken möchte, kann jetzt eine individuelle Beratung anfordern und die Plattform kostenlos testen. SendApp, um Feldtests für Automatisierung, KI und neue Regeln der digitalen Kommunikation durchzuführen.

Hinterlasse eine Antwort