61 Prozent der Jugendlichen haben innerhalb eines Monats Fake News gesehen. Bis 2026 könnten laut Prognosen bis zu 90 Prozent der Online-Inhalte synthetisch und teilweise KI-generiert sein. Deepfakes nahmen 2025 massiv zu, die Produktion von Falschinformationen ist durch KI-Tools extrem billig, schnell und massentauglich geworden – jede Person kann damit Fake News herstellen und verbreiten.
Hoher Vertrauensverlust
Das Internet, wie wir es kennen, verändert sich fundamental. Social-Media-Netzwerke werden mit KI-generierten «Schrott-Inhalten» (AI Slop) geflutet, die automatisch in hoher Taktung von KI-Agenten erstellt und gepostet werden. Die «JIM»-Studie 2024, Studien von «Surfshark» zu Deepfakes 2025 und Untersuchungen der IU Internationale Hochschule belegen: Der Vertrauensverlust in Medien und Informationsplattformen ist eine direkte Folge dieser Entwicklung.
In einer Welt voller AI Slop, Fake News und automatisierter Desinformation entscheidet der «CRAP»-Test darüber, ob wir verführt werden oder fundierte Entscheidungen treffen. Die vier Buchstaben C-R-A-P sind unser Filter gegen Informationsmüll – und ein kritischer Erfolgsfaktor für datenbasierte Strategien.
Hausgemachtes Problem
Die unbequeme Wahrheit: Wir als Entscheider und Marketingverantwortliche sind mitverantwortlich für diese Krise. Emotionale, polarisierende Inhalte generieren mehr Engagement – und genau darauf optimieren wir unsere Kampagnen und darauf reagieren Social-Media-Algorithmen. Wir haben ein Ökosystem geschaffen, das Desinformation mit Reichweite belohnt.
Die Daten sind eindeutig: Das Engagement bei rein KI-generierten Texten ist oft geringer als bei menschlich geschriebenen Inhalten, aber sie werden dennoch geteilt, wenn sie emotional triggern. Bot-Netzwerke verstärken die Verbreitung durch automatisierte Posts, Kommentare und Likes. So gewinnen Desinformation und KI-Fakes rasch Sichtbarkeit – besonders in Wahlkampfphasen oder während Krisen.
Das Kernproblem für unsere Branche: Wir verlieren die Fähigkeit, Echtheit und Seriosität von Quellen zu überprüfen, weil KI-Fakes immer glaubwürdiger erscheinen. Gleichzeitig recherchieren wir unter Zeitdruck zu wenig. Wir übernehmen Marktdaten, Wettbewerbsanalysen und Trendreports unreflektiert – mit potenziell gravierenden Folgen für unsere Strategien.Die Konsequenz: Schlechte Entscheidungen auf falschen Daten kosten uns Budgets, Brand Reputation und Marktanteile. Unser Wettbewerbsvorteil erodiert, wenn wir auf Basis von AI Slop strategische Weichen stellen. Die gute Nachricht: Es gibt ein simples, aber hochwirksames Werkzeug dagegen – entwickelt in der akademischen Welt, bewährt seit fast zwei Jahrzehnten.
Die Lösung: der CRAP-Test
Der CRAP-Test basiert auf dem CRAAP-Test, einer Methode zur Bewertung der Glaubwürdigkeit von Informationsquellen. CRAAP steht für Currency (Aktualität), Relevance (Relevanz), Authority (Autorität), Accuracy (Genauigkeit) und Purpose (Zweck) – fünf Schlüsselkriterien zur Beurteilung der Qualität einer Quelle. Der CRAAP-Test wurde 2004 von der Bibliothekarin Sarah Blakeslee an der California State University, Chico, entwickelt.
Die vereinfachte CRAP-Variante wurde 2008 von der Bibliothekarin Molly Beestrum adaptiert, um die Quellenprüfung praxisnäher zu machen. CRAP steht für Currency (Aktualität), Reliability (Zuverlässigkeit), Authority (Autorität) und Purpose (Zweck).
Obwohl diese Methode seit Jahren in wissenschaftlichen Kontexten etabliert ist, wird sie im Business-Kontext – Marketing, Strategie, Business Intelligence – noch viel zu wenig systematisch angewendet. Fatal, gerade jetzt, wo KI die Grenzen zwischen Fakt und Fiktion verwischt und unsere Entscheidungsgrundlagen kompromittiert.
Die vier Bewertungskriterien
C – Currency (Aktualität)
Wie zeitnah ist die Information? In volatilen Märkten sind veraltete Daten nicht nur wertlos, sondern gefährlich. Eine Marktanalyse von 2015 über digitale Transformation? Obsolet. Ein aktueller Report von Q3 2025 über KI-gestützte Customer Experience? Strategierelevant.
R – Reliability (Zuverlässigkeit)
Sind die Aussagen und Daten belegbar? Werden Primärquellen, wissenschaftliche Studien oder fundierte Marktforschung zitiert? Seriöse Quellen wie die JIM-Studie 2024 (Forschungsverbund Südwest), Studien von Surfshark oder Untersuchungen der IU Internationale Hochschule dokumentieren ihre Methodik transparent. Unseriöse Quellen verschleiern sie oder erfinden Zahlen.
A – Authority (Autorität)
Wer steht dahinter? Hat diese Person oder Institution nachweisbare Expertise? Ein renommiertes Medienhaus wie SRF, eine peer-reviewed Hochschulstudie oder ein etabliertes Fachportal wie Heise haben eine andere Evidenzqualität als Content-Farmen oder selbst ernannte «Thought Leaders» ohne Track Record.
P – Purpose (Zweck)
Was will der Absender erreichen? Objektive Information und Aufklärung? Oder Lead-Generierung, Produktverkauf, Agenda-Setting? Neutrale, methodisch saubere Sprache deutet auf seriöse Absichten hin. Emotionale, polarisierende oder verkaufsorientierte Formulierungen sind Warnsignale.
Zwei Praxisbeispiele
Beispiel 1 – CRAP
Eine viral gehende Linkedin-Analyse behauptet: «73 Prozent der CMOs setzen bereits vollständig auf KI-generierte Kampagnen» – Quelle: Eine Studie von 2015, Autor unbekannt, keine Methodik dokumentiert.
CRAP-Check: Veraltet (C), keine Belege (R), unklare Expertise (A), sensationalistischer Clickbait-Zweck (P).
Ergebnis: CRAP. Als Entscheidungsgrundlage unbrauchbar.
Beispiel 2 – Qualitätsquelle
Der Bericht der IU Internationale Hochschule vom September 2025 über Fake News und Deepfakes – mit empirischen Daten aus n=2500 Befragten, klarer Autorenschaft, peer-reviewed, aktuellem Erhebungszeitraum und dem Zweck gesellschaftlicher Aufklärung.
Ergebnis: Strategierelevante Evidenz.
Ohne Wahrheitsgarantie
Auch KI-Tools wie ChatGPT, Claude oder Gemini liefern Informationen – aber keine Wahrheitsgarantie. Als Marketingverantwortliche und Entscheider müssen wir KI-Outputs systematisch validieren. Die goldene Regel für alle Research- und Intelligence-Prozesse: Bei jeder Recherche – ob für Marktanalysen, Wettbewerbsreports, Trendstudien oder Entscheidungsvorlagen – verwenden wir den Standard-Prompt: «Erstelle einen CRAP-Check für alle Quellen.»
Das zwingt uns (und unsere KI-Tools) zur systematischen Validierung: Currency, Reliability, Authority, Purpose.
Für ChatGPT-User: Es gibt einen spezialisierten CRAP-GPT unter www.crapcheck.ai (ein CustomGPT), ein Tool, das Quellen automatisiert nach den vier Kriterien bewertet und strukturierte Bewertungstabellen ausgibt.
Im Marketing-Kontext
- Purpose-First-Ansatz: Starten wir beim Purpose. Fragen wir uns: «Welche Agenda verfolgt diese Quelle? Wer profitiert von dieser Aussage?» Das schärft unseren Blick für verdecktes Agenda-Setting und Native Advertising.
- Authority-Validierung: Überprüfen wir Autor und Institution systematisch. LinkedIn-Profil checken, Google Scholar durchsuchen, Unternehmenshintergrund recherchieren. Eine McKinsey-Studie hat eine andere Evidenzqualität als ein anonymer Substack-Newsletter.
- Currency-Check: Ist die Information noch strategierelevant? Bei hochdynamischen Märkten können selbst sechs Monate alte Daten obsolet sein. Besonders bei KI, Technologie oder Konsumentenverhalten ist das Datum kritisch.
- Reliability-Assessment: Werden Primärquellen genannt? Ist die Methodik dokumentiert? Wie gross war die Stichprobe? Gibt es Peer-Review? Unseriöse Quellen arbeiten mit «Experten sagen» ohne Namen oder «Studien zeigen» ohne Referenz.
- Workflow-Integration: Wir machen den CRAP-Test zum Standard in unserem Approval-Prozess. Jedes Strategy Paper, jeder Board Report, jede Kampagnenbegründung durchläuft den Check. Wir fügen «Erstelle einen CRAP-Check» in unsere Standard-KI-Prompts ein. Wir teilen www.crapcheck.ai im Leadership-Team und Marketing-Department.
Test ist geschäftskritisch
Das Internet wird mit KI-generierten Inhalten überschwemmt. Plattform-Algorithmen priorisieren Engagement über Evidenz – genau das Prinzip, auf das auch wir im Performance Marketing optimieren. Content-Farmen produzieren systematisch Falschinformationen, um das Informationsökosystem zu monetarisieren.
Die strategische Implikation: Medienkompetenz wird zur Kernkompetenz für datengetriebene Organisationen. Wer Quellen nicht systematisch validiert, trifft Millionen-Entscheidungen auf wackeligen Fundamenten. Wer den CRAP-Test institutionalisiert, verschafft sich einen Wettbewerbsvorteil durch überlegene Intelligence-Qualität.
Die Wahrheit ist: Das Internet stirbt nicht – es transformiert sich. Und wir als Entscheider bestimmen mit, in welche Richtung. Entweder lassen wir zu, dass AI Slop und Fake News unsere Entscheidungsgrundlagen kompromittieren. Oder wir institutionalisieren kritische Quellenprüfung als Standard in unseren Organisationen.
Fazit
Die Frage ist nicht mehr: «Ist das CRAP?» Die Frage ist: «Wann implementieren wir systematische Quellenvalidierung in unseren Entscheidungsprozessen?» Denn eines ist absolut sicher: Was CRAP ist, gefährdet unsere strategischen Investments. Was den Test besteht, ist die Grundlage für Wettbewerbsvorteile. Und wir haben ab jetzt die Kompetenz und die Tools, beides auseinanderzuhalten.
Für KMU bedeutet das: Medienkompetenz wird zur Kernkompetenz. Wer Quellen nicht prüft, trifft Entscheidungen auf wackeligen Fundamenten. Wer den CRAP-Test beherrscht und systematisch anwendet, verschafft sich einen Wettbewerbsvorteil durch bessere Informationsgrundlagen. Die Transformation des Internet ist in vollem Gange. In welche Richtung es läuft, wird gemeinsam entschieden. Lassen wir es zu, dass AI Slop und Fake News die Oberhand gewinnen? Oder werden wir zu kritischen, kompetenten Nutzern, die Qualität von Müll unterscheiden können. Denn eines ist absolut sicher: Was CRAP ist, kann weg. Was den Test besteht, ist Gold wert. Und ab jetzt haben wir die Kompetenz, beides auseinanderzuhalten.