ChatGPT, Claude, Gemini, Mistral, Perplexity:
Der faktenbasierte Vergleich

Fünf KI-Assistenten, fünf unterschiedliche Datenschutzmodelle. Welche Modelle nutzen deine Chatverläufe fürs Training? Bis wann gehen ihre Trainingsdaten? Und was bedeutet das für die Verlässlichkeit aktueller Informationen? Ein sachlicher Vergleich basierend auf offiziellen Quellen.

Wichtig zu wissen — Knowledge Cutoff Dates

Bis wann gehen die Trainingsdaten?

KI-Modelle werden mit Daten bis zu einem bestimmten Datum trainiert — dem sogenannten Knowledge Cutoff DateKnowledge CutoffDas Datum, bis zu dem ein KI-Modell trainiert wurde. Danach passierte Ereignisse kennt es nicht aus eigenem Wissen - es braucht dann eine Websuche, um aktuelle Infos zu liefern.. Events oder Informationen nach diesem Datum kennt das Modell nicht aus seinem Training. Das bedeutet: Für aktuelle Themen ist oft eine Websuche nötig, auch wenn die KI Zugriff darauf hat.

⚠️
Wichtig: Auch wenn ein Modell über ein aktuelles Thema „spricht", bedeutet das nicht, dass es aus seinem Training stammt. Die meisten Assistenten nutzen Websuche oder andere Tools, um aktuelle Informationen abzurufen. Ohne diese Tools kennt das Modell nur Fakten bis zum Cutoff-Datum.

Knowledge Cutoff Dates der 5 Assistenten

Assistent Aktuelles Modell Knowledge Cutoff Release-Datum
ChatGPT GPT-5.2 Instant 31. August 2025 11. Dez 2025
Claude Claude 4.6 Sonnet August 2025 (reliable)
Januar 2026 (training data)
17. Feb 2026
Gemini Gemini 3.0 Januar 2025 18. Nov 2025
Mistral Mistral Large 2 ~Juli 2024 Juli 2024
Perplexity Hybrid (nutzt andere Modelle) Variabel (nutzt GPT, Claude, Mistral) Laufend aktualisiert

Was bedeutet das praktisch?

Fazit: Wenn du aktuelle Informationen brauchst (News, aktuelle Events, neue Produkte), aktiviere die Websuche oder nutze Perplexity, das standardmäßig sucht. Verlasse dich nicht auf das Modell-Wissen allein.
Die 5 Assistenten im Detail

Wer sind sie — und was bieten sie?

ChatGPT
OpenAI (USA) — Microsoft-Partner
Marktführer mit 800 Mio. wöchentlichen Nutzern. Starke Coding-Fähigkeiten, aber Datenschutz erfordert manuelle Konfiguration.
Kostenlos: Ja (GPT-4o mini, limitiert)
Plus: $20/Mon (GPT-5.2, mehr Anfragen)
Cutoff: 31. August 2025
Training: Standard AN (Opt-outOpt-outDu musst aktiv widersprechen, damit deine Daten nicht fürs Training genutzt werden. Ohne Widerspruch gilt: Deine Chats werden verwendet. Das Gegenteil von Opt-in. möglich)
Stärken: Coding, Mathematik, breite Verfügbarkeit
Claude
Anthropic (USA) — „Ethical AI"
Gegründet von Ex-OpenAI-Mitarbeitern mit Fokus auf Sicherheit. Kein Training ohne Einwilligung.
Kostenlos: Ja (Sonnet 4.6, limitiert)
Pro: $20/Mon (Opus 4.6, mehr Anfragen)
Cutoff: August 2025 (reliable), Jan 2026 (training)
Training: Standard AUS (Opt-inOpt-inDeine Daten werden nur fürs Training genutzt, wenn du aktiv zustimmst. Ohne deine Zustimmung passiert nichts. Datenschutzfreundlicher als Opt-out. nötig)
Stärken: Datenschutz, Coding, lange Kontexte
Gemini
Google (USA)
Integration mit Google Workspace (Gmail, Drive, Kalender). Daten werden über Google-Dienste verknüpft.
Kostenlos: Ja (Gemini 2.0 Flash, limitiert)
Advanced: $20/Mon (Gemini 3.0, 2TB Drive)
Cutoff: Januar 2025
Training: Standard AN (komplizierter Opt-out)
Stärken: Google-Integration, 100+ Sprachen
Mistral
Mistral AI (Frankreich/EU)
Europäischer Player mit DSGVODSGVODatenschutz-Grundverordnung - das EU-Datenschutzgesetz seit 2018. Schreibt vor, wie Unternehmen persönliche Daten verarbeiten dürfen. Verstöße können mit bis zu 4% des weltweiten Jahresumsatzes bestraft werden.-Konformität. Open-SourceOpen SourceDer Quellcode des KI-Modells ist öffentlich einsehbar und kann von jedem heruntergeladen werden. Ermöglicht vollständige Datenkontrolle, weil das Modell auf eigenen Servern laufen kann - keine Daten verlassen dein Netzwerk.-Modelle verfügbar.
Kostenlos: Ja (Large 2, limitiert)
Pro: €15/Mon
Cutoff: ~Juli 2024
Training: Standard AN (einfacher Opt-out)
Stärken: EU-Datenschutz, Mehrsprachigkeit, Open Source
Perplexity
Perplexity AI (USA)
Answer EngineAnswer EngineAntwortmaschine - statt wie Google nur Links zu liefern, durchsucht Perplexity das Internet und formuliert eine fertige Antwort mit Quellenangaben. Eine Mischung aus Suchmaschine und KI-Assistent." mit automatischer Websuche. Immer mit Quellenangaben.
Kostenlos: Ja (5 Suchen/Tag, limitiert)
Pro: $20/Mon (unbegrenzt, GPT-5 + Claude)
Cutoff: Variabel (nutzt externe Modelle)
Training: Standard AN (einfacher Opt-out, Inkognito-Modus)
Stärken: Recherche, Quellenangaben, aktuelle Infos
Wer nutzt deine Daten fürs Training?

So verwenden die Anbieter deine Chatverläufe

Die meisten KI-Assistenten nutzen Chatverläufe, um ihre Modelle zu verbessern — wenn du nicht widersprichst (Opt-outOpt-out vs. Opt-inOpt-out = du musst aktiv widersprechen, sonst werden deine Daten genutzt. Opt-in = deine Daten werden nur genutzt, wenn du aktiv zustimmst. Opt-in ist datenschutzfreundlicher.). Die Details variieren stark:

Anbieter Standard-Einstellung Opt-out möglich? Speicherdauer nach Opt-out Enterprise/API
ChatGPT Training AN Ja, manuell 30 Tage (Sicherheit/Missbrauch) Kein Training
Claude Training AUS Opt-in nötig für Training 30 Tage (Sicherheit)
5 Jahre bei Opt-in
Kein Training
Gemini Training AN Kompliziert (Activity Control) 18 Monate standard (anpassbar: 3/36 Mon) Kein Training
Mistral Training AN Ja, einfacher Opt-out Keine genauen Angaben Kein Training (API/Enterprise)
Perplexity Training AN Ja (AI Data Usage)
Inkognito-Modus speichert nichts
Keine genauen Angaben (Inkognito: 0 Tage) Kein Training (API)

Die Details im Vergleich

ChatGPT (OpenAI):

Claude (Anthropic):

Gemini (Google):

Mistral:

Perplexity:

🔒
Wichtig: Selbst bei ausgeschaltetem Training speichern alle Anbieter Conversations für 30 Tage+ für „Sicherheit und Missbrauchserkennung". Außerdem: Opt-out verhindert nur zukünftiges Training — bereits gesammelte Daten bleiben im Trainingsdatensatz.

Datenschutz-Ranking

  1. Claude: Kein Training ohne Opt-in, transparente 30-Tage-Retention.
  2. Mistral: EU-basiert, DSGVO-konform, einfacher Opt-out, Open-Source-Option.
  3. Perplexity: Einfacher Opt-out, Inkognito-Modus, aber Daten durchlaufen OpenAI/Anthropic APIs.
  4. ChatGPT: Opt-out möglich, aber Training ist Standard. Temporary Chat verfügbar.
  5. Gemini: Komplizierter Opt-out, 18 Monate Speicherung, Google-Ökosystem-Verknüpfung.
Das Fakten-Problem

Halluzinationen: KI erfindet selbstbewusst Unsinn

Was sind Halluzinationen? KI-Modelle „halluzinierenHalluzinationWenn eine KI selbstbewusst falsche Informationen erfindet - z.B. nicht existierende Studien oder Gerichtsurteile. Das Modell weiß nicht, dass es lügt, weil es keinen Begriff von Wahrheit hat.", wenn sie selbstbewusst falsche Informationen präsentieren — erfundene Gerichtsurteile, nicht existierende Studien, falsche Fakten. Das Problem: Sie klingen dabei absolut überzeugend.

Fall 1: Mata v. Avianca (Mai 2023)

Der New Yorker Anwalt Steven Schwartz reichte eine Klageschrift ein, die 6 von 9 zitierten Gerichtsurteilen erfunden waren — alle von ChatGPT generiert. Als der Richter ihn bat, die Urteile vorzulegen, fragte Schwartz ChatGPT: „Sind diese Fälle echt?" ChatGPT: „Ja, das sind echte Fälle."

Schwartz reichte die „vollständigen Texte" ein — allesamt von ChatGPT erfunden, inklusive erfundener Zitate und interner Verweise. Der Richter nannte es „unprecedented" und verhängte eine $5.000-Strafe.

979 dokumentierte Fälle weltweit

Der französische Forscher Damien Charlotin führt eine Datenbank von Anwälten weltweit, die von KI-Halluzinationen erwischt wurden. Von 2 Fällen pro Woche (Frühjahr 2025) auf 2-3 Fälle pro Tag (Ende 2025). Die Zahlen steigen exponentiell.

Stanford-Studie: 17-33% Halluzinationsrate

Stanford University RegLab (Mai 2024) testete spezialisierte Rechts-KI-Tools (Lexis+ AI, Westlaw AI) — Tools, die als „halluzinationsfrei" beworben wurden. Ergebnis:

Warum halluzinieren KI-Modelle?

KI-Sprachmodelle funktionieren probabilistischProbabilistischWahrscheinlichkeitsbasiert: Das Modell berechnet für jedes nächste Wort, welches statistisch am wahrscheinlichsten passt - basierend auf Mustern in Milliarden Textseiten. Es versteht nicht, was es sagt. — sie berechnen, welches Wort als nächstes am wahrscheinlichsten ist, basierend auf Mustern in TrainingsdatenTrainingsdatenMilliarden von Texten aus dem Internet, Büchern, Wikipedia und anderen Quellen, mit denen ein KI-Modell trainiert wird. Die Qualität und der Umfang dieser Daten bestimmen, was die KI kann und weiß.. Sie haben kein Verständnis von „wahr" oder „falsch". Wenn du eine schwierige Frage stellst, für die es keine guten Antworten in den Trainingsdaten gibt, erfindet die KI eine plausibel klingende Antwort.

Fazit: Je schwieriger deine Frage, desto wahrscheinlicher halluziniert das Modell — weil es dir gefallen will und eine plausible Antwort generiert, auch wenn keine Fakten vorhanden sind.

Was bedeutet das praktisch?

27. Februar 2026 — Was gestern passierte

Pentagon vs. Anthropic: Ethik oder Pragmatismus?

Am 27. Februar 2026 eskalierte ein Konflikt zwischen dem US-Verteidigungsministerium und Anthropic (Hersteller von Claude). Das Pentagon setzte Anthropic eine Frist bis 17:01 Uhr: Entferne die Einschränkungen für Massenüberwachung und autonome Waffen, oder verliere den 200-Millionen-Dollar-Vertrag.

Anthropic-CEO Dario Amodei lehnte ab: „Wir können in gutem Gewissen nicht zustimmen." Das Unternehmen bestand darauf, dass Claude nicht für Massenüberwachung von US-Bürgern oder vollautonome WaffensystemeAutonome WaffenWaffensysteme, die ohne menschliche Entscheidung eigenständig Ziele auswählen und angreifen können. International hochumstritten, da sie die menschliche Kontrolle über Tötungsentscheidungen entfernen. eingesetzt werden darf.

Präsident Trump ordnete an: „Alle Bundesbehörden müssen die Nutzung von Anthropic SOFORT einstellen." Verteidigungsminister Pete Hegseth erklärte Anthropic zum Supply Chain RiskSupply Chain RiskLieferketten-Risiko - eine offizielle US-Einstufung, die normalerweise für feindliche ausländische Unternehmen reserviert ist (z.B. Huawei). Dass ein US-Unternehmen so eingestuft wird, ist beispiellos." — eine Einstufung, die normalerweise für ausländische Gegner reserviert ist.

Stunden später: OpenAI-CEO Sam Altman verkündete, sein Unternehmen habe einen Deal mit dem Pentagon geschlossen — angeblich mit den gleichen „roten Linien" (keine Massenüberwachung, keine autonomen Waffen).

Was ist der Unterschied?

Unklar. OpenAI behauptet, die Einschränkungen seien identisch zu Anthropics Forderungen. Anthropic sagt: Das Pentagon habe sich vorbehalten, die Regeln „bei Bedarf" außer Kraft setzen zu können. Anthropic wollte verbindliche Garantien. OpenAI akzeptierte das Pentagon-Versprechen, sich an „bestehende Gesetze und Richtlinien" zu halten.

Kontext: OpenAI & Militär

Im Januar 2024 entfernte OpenAI das Verbot militärischer Nutzung aus seinen Nutzungsbedingungen. Seitdem arbeitet OpenAI aktiv mit dem Pentagon zusammen. Gestern (27. Feb 2026) wurde dieser Deal formalisiert.

Was bedeutet das?

Diese Entwicklung zeigt unterschiedliche Prioritäten:

Für datenschutzbewusste Nutzer ist die Frage: Vertraue ich einem Unternehmen, das Geld über Prinzipien stellt — oder einem, das für Prinzipien auf Geld verzichtet?

💡 Fazit — Welcher Assistent für welchen Zweck?

Datenschutz-Priorität: Claude (kein Training ohne Opt-in, Pentagon-Rauswurf zeigt Prinzipientreue) oder Mistral (EU-basiert, DSGVO-konform).

Recherche & aktuelle Infos: Perplexity (automatische Websuche, Quellenangaben, aktuellste Daten).

Coding & Mathematik: ChatGPT (GPT-5.2) oder Claude (Opus 4.6) — beide stark, aber unterschiedliche Datenschutzmodelle.

Google-Ökosystem: Gemini (Gmail, Drive, Kalender-Integration) — aber Daten werden verknüpft, 18 Monate Speicherung.

Marktführer (trotz Bedenken): ChatGPT (größte Nutzerbasis, aber Training standard, Pentagon-Deal seit gestern).

Wichtigste Regel für alle: Niemals blind vertrauen. Quellen prüfen, Fakten verifizieren. Für aktuelle Informationen Websuche aktivieren oder Perplexity nutzen.

Quellen & Nachweise
[1]
ALLMO: Knowledge Cutoff Dates LLMs (Feb 2026)
Claude 4.6 Sonnet: Aug 2025 (reliable), Jan 2026 (training). ChatGPT 5.2: Aug 2025. Gemini 3: Jan 2025.
allmo.ai/articles/list-of-large-language-model-cut-off-dates
[2]
Medium: AI Chatbot Data Privacy ChatGPT/Claude/Gemini (Feb 2026)
Detaillierter Vergleich Training-Policies. ChatGPT: 30 Tage Retention. Claude: Opt-in/out-Hybrid seit Sept 2025. Gemini: 18 Monate.
medium.com/@aftab001x/the-truth-about-ai-chatbot-data-privacy
[3]
ObscureIQ: Privacy-Respecting LLMs (Dez 2025)
Ranking: Claude 3.5/5, ChatGPT 3.5/5, Perplexity 3.1/5. Details zu Opt-out-Mechanismen, Retention, Enterprise-Garantien.
obscureiq.com/which-generative-ai-is-most-privacy-respecting/
[4]
Tom's Guide: Privacy Comparison ChatGPT/Claude/Gemini (Dez 2025)
Claude = beste Wahl (kein Training ohne Opt-in). ChatGPT = schlechteste (Training standard). Perplexity = granulare Kontrolle.
tomsguide.com/ai/compared-privacy-chatgpt-gemini-claude-and-perplexity
[5]
Legal Dive: ChatGPT Fake Cases Scandal (Mai 2023)
Mata v. Avianca: 6 von 9 zitierten Gerichtsurteilen erfunden. ChatGPT bestätigte Fakes als echt. $5.000 Strafe.
legaldive.com/news/chatgpt-fake-legal-cases-generative-ai-hallucinations/651557/
[6]
Damien Charlotin: AI Hallucination Cases Database (2025)
979 dokumentierte Fälle weltweit. Von 2 Fällen/Woche (Frühjahr 2025) auf 2-3 Fälle/Tag (Ende 2025).
damiencharlotin.com/hallucinations/
[7]
Stanford RegLab: Legal AI Hallucination Study (Mai 2024)
Lexis+ AI: 17% Halluzinationsrate. Westlaw AI: 33%. Trotz „halluzinationsfrei"-Marketing.
hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more
[8]
NPR: Pentagon kickt Anthropic, OpenAI übernimmt (28. Feb 2026)
Trump ordnet Stopp von Anthropic an. OpenAI unterzeichnet Stunden später Pentagon-Vertrag mit angeblich gleichen „Red Lines".
npr.org/2026/02/27/nx-s1-5729118/anthropic-pentagon-openai-ai-weapons
[9]
CNN: OpenAI Pentagon-Deal Details (28. Feb 2026)
Unterschiedliche Bedingungen: Anthropic wollte verbindliche Garantien, OpenAI akzeptierte Pentagon-Versprechen.
cnn.com/2026/02/27/tech/openai-pentagon-deal-ai-systems
[10]
Fello AI: Stop AI from Training on Your Data (Dez 2025)
Schritt-für-Schritt-Anleitung Opt-out für ChatGPT, Claude, Gemini. Policy-Änderungen Ende 2025 zu „Opt-out"-Modellen.
felloai.com/how-to-stop-ai-from-training-on-your-data/
Link kopiert ✓