ChatGPT, Claude, Gemini, Mistral, Perplexity: Der faktenbasierte Vergleich
Fünf KI-Assistenten, fünf unterschiedliche Datenschutzmodelle. Welche Modelle nutzen deine Chatverläufe fürs Training? Bis wann gehen ihre Trainingsdaten? Und was bedeutet das für die Verlässlichkeit aktueller Informationen? Ein sachlicher Vergleich basierend auf offiziellen Quellen.
QuellenbasiertStand: 28. Feb. 2026
Wichtig zu wissen — Knowledge Cutoff Dates
Bis wann gehen die Trainingsdaten?
KI-Modelle werden mit Daten bis zu einem bestimmten Datum trainiert — dem sogenannten Knowledge Cutoff DateKnowledge CutoffDas Datum, bis zu dem ein KI-Modell trainiert wurde. Danach passierte Ereignisse kennt es nicht aus eigenem Wissen - es braucht dann eine Websuche, um aktuelle Infos zu liefern.. Events oder Informationen nach diesem Datum kennt das Modell nicht aus seinem Training. Das bedeutet: Für aktuelle Themen ist oft eine Websuche nötig, auch wenn die KI Zugriff darauf hat.
⚠️
Wichtig: Auch wenn ein Modell über ein aktuelles Thema „spricht", bedeutet das nicht, dass es aus seinem Training stammt. Die meisten Assistenten nutzen Websuche oder andere Tools, um aktuelle Informationen abzurufen. Ohne diese Tools kennt das Modell nur Fakten bis zum Cutoff-Datum.
Knowledge Cutoff Dates der 5 Assistenten
Assistent
Aktuelles Modell
Knowledge Cutoff
Release-Datum
ChatGPT
GPT-5.2 Instant
31. August 2025
11. Dez 2025
Claude
Claude 4.6 Sonnet
August 2025 (reliable) Januar 2026 (training data)
17. Feb 2026
Gemini
Gemini 3.0
Januar 2025
18. Nov 2025
Mistral
Mistral Large 2
~Juli 2024
Juli 2024
Perplexity
Hybrid (nutzt andere Modelle)
Variabel (nutzt GPT, Claude, Mistral)
Laufend aktualisiert
Was bedeutet das praktisch?
ChatGPT (GPT-5.2): Kennt Events bis Ende August 2025. Alles danach erfordert Websuche.
Claude (4.6 Sonnet): Unterscheidet zwischen „reliable knowledge" (Aug 2025) und „training data cutoff" (Jan 2026). Neuestes Wissen zuverlässig bis August 2025.
Gemini (3.0): Ältester Cutoff (Januar 2025) — für alles ab Februar 2025 ist Websuche nötig.
Mistral: Juli 2024 — vergleichsweise veraltet für aktuelle Ereignisse.
Perplexity: Nutzt verschiedene Modelle (GPT, Claude, Mistral) und kombiniert sie mit Websuche — daher am aktuellsten.
Fazit: Wenn du aktuelle Informationen brauchst (News, aktuelle Events, neue Produkte), aktiviere die Websuche oder nutze Perplexity, das standardmäßig sucht. Verlasse dich nicht auf das Modell-Wissen allein.
Die 5 Assistenten im Detail
Wer sind sie — und was bieten sie?
ChatGPT
OpenAI (USA) — Microsoft-Partner
Marktführer mit 800 Mio. wöchentlichen Nutzern. Starke Coding-Fähigkeiten, aber Datenschutz erfordert manuelle Konfiguration.
Kostenlos: Ja (GPT-4o mini, limitiert) Plus: $20/Mon (GPT-5.2, mehr Anfragen) Cutoff: 31. August 2025 Training: Standard AN (Opt-outOpt-outDu musst aktiv widersprechen, damit deine Daten nicht fürs Training genutzt werden. Ohne Widerspruch gilt: Deine Chats werden verwendet. Das Gegenteil von Opt-in. möglich) Stärken: Coding, Mathematik, breite Verfügbarkeit
Claude
Anthropic (USA) — „Ethical AI"
Gegründet von Ex-OpenAI-Mitarbeitern mit Fokus auf Sicherheit. Kein Training ohne Einwilligung.
Kostenlos: Ja (Sonnet 4.6, limitiert) Pro: $20/Mon (Opus 4.6, mehr Anfragen) Cutoff: August 2025 (reliable), Jan 2026 (training) Training: Standard AUS (Opt-inOpt-inDeine Daten werden nur fürs Training genutzt, wenn du aktiv zustimmst. Ohne deine Zustimmung passiert nichts. Datenschutzfreundlicher als Opt-out. nötig) Stärken: Datenschutz, Coding, lange Kontexte
Gemini
Google (USA)
Integration mit Google Workspace (Gmail, Drive, Kalender). Daten werden über Google-Dienste verknüpft.
Kostenlos: Ja (Gemini 2.0 Flash, limitiert) Advanced: $20/Mon (Gemini 3.0, 2TB Drive) Cutoff: Januar 2025 Training: Standard AN (komplizierter Opt-out) Stärken: Google-Integration, 100+ Sprachen
Mistral
Mistral AI (Frankreich/EU)
Europäischer Player mit DSGVODSGVODatenschutz-Grundverordnung - das EU-Datenschutzgesetz seit 2018. Schreibt vor, wie Unternehmen persönliche Daten verarbeiten dürfen. Verstöße können mit bis zu 4% des weltweiten Jahresumsatzes bestraft werden.-Konformität. Open-SourceOpen SourceDer Quellcode des KI-Modells ist öffentlich einsehbar und kann von jedem heruntergeladen werden. Ermöglicht vollständige Datenkontrolle, weil das Modell auf eigenen Servern laufen kann - keine Daten verlassen dein Netzwerk.-Modelle verfügbar.
Kostenlos: Ja (Large 2, limitiert) Pro: €15/Mon Cutoff: ~Juli 2024 Training: Standard AN (einfacher Opt-out) Stärken: EU-Datenschutz, Mehrsprachigkeit, Open Source
Perplexity
Perplexity AI (USA)
„Answer EngineAnswer EngineAntwortmaschine - statt wie Google nur Links zu liefern, durchsucht Perplexity das Internet und formuliert eine fertige Antwort mit Quellenangaben. Eine Mischung aus Suchmaschine und KI-Assistent." mit automatischer Websuche. Immer mit Quellenangaben.
Kostenlos: Ja (5 Suchen/Tag, limitiert) Pro: $20/Mon (unbegrenzt, GPT-5 + Claude) Cutoff: Variabel (nutzt externe Modelle) Training: Standard AN (einfacher Opt-out, Inkognito-Modus) Stärken: Recherche, Quellenangaben, aktuelle Infos
Wer nutzt deine Daten fürs Training?
So verwenden die Anbieter deine Chatverläufe
Die meisten KI-Assistenten nutzen Chatverläufe, um ihre Modelle zu verbessern — wenn du nicht widersprichst (Opt-outOpt-out vs. Opt-inOpt-out = du musst aktiv widersprechen, sonst werden deine Daten genutzt. Opt-in = deine Daten werden nur genutzt, wenn du aktiv zustimmst. Opt-in ist datenschutzfreundlicher.). Die Details variieren stark:
Anbieter
Standard-Einstellung
Opt-out möglich?
Speicherdauer nach Opt-out
Enterprise/API
ChatGPT
Training AN
Ja, manuell
30 Tage (Sicherheit/Missbrauch)
Kein Training
Claude
Training AUS
Opt-in nötig für Training
30 Tage (Sicherheit) 5 Jahre bei Opt-in
Kein Training
Gemini
Training AN
Kompliziert (Activity Control)
18 Monate standard (anpassbar: 3/36 Mon)
Kein Training
Mistral
Training AN
Ja, einfacher Opt-out
Keine genauen Angaben
Kein Training (API/Enterprise)
Perplexity
Training AN
Ja (AI Data Usage) Inkognito-Modus speichert nichts
Keine genauen Angaben (Inkognito: 0 Tage)
Kein Training (API)
Die Details im Vergleich
ChatGPT (OpenAI):
Standard: Conversations werden für Training verwendet.
Opt-out: Einstellungen → Data Controls → "Improve the model for everyone" AUSschalten.
Nach Opt-out: 30 Tage Speicherung für Sicherheit/Missbrauchserkennung.
Temporary Chat: Speichert nichts, muss aber jedes Mal manuell aktiviert werden.
Enterprise/APIEnterprise & APIGeschäftskunden-Zugänge und Programmierschnittstellen. Hier gelten strengere Datenschutzregeln: Kein Training mit Nutzerdaten, vertraglich garantiert. Kostet mehr, aber deine Daten bleiben privat.: Automatisch kein Training, vertraglich garantiert.
Claude (Anthropic):
Standard: KEIN Training ohne explizite Einwilligung (Opt-in).
Training nur wenn: Du aktiv Feedback gibst (Thumbs up/down) oder Development Partner Program beitrittst.
Speicherung: 30 Tage für Sicherheit („Unbreakable Safety LoopSafety LoopAnthropics Sicherheitsmechanismus: Alle Chats werden 30 Tage lang aufbewahrt, um Missbrauch zu erkennen - auch wenn du dem Training widersprichst. Danach werden sie gelöscht."), auch bei Opt-out.
Bei Opt-in: 5 Jahre Speicherung für Trainingszwecke.
Policy-Änderung Sept 2025: Anthropic führte Opt-in/Opt-out-Hybrid ein. Nutzer, die nicht auf Policy-Update reagierten, wurden als „Consent" gewertet — kontrovers diskutiert.
Gemini (Google):
Standard: Conversations werden 18 Monate gespeichert und für Training genutzt.
Opt-out: Kompliziert — über „Gemini Apps ActivityActivity ControlsGoogles Einstellungen zur Datenerhebung. Steuert, welche Daten Google speichert und fürs Training nutzt. Kompliziert zu finden und mit Funktionseinschränkungen verbunden, wenn man sie abschaltet." in Google Account Settings. Kann auf 3/36 Monate angepasst oder komplett ausgeschaltet werden.
Problem: Wenn Activity Control ausgeschaltet, werden manche Features (Gmail, Docs-Integration) eingeschränkt.
Menschliche Prüfung: Conversations können von Google-Mitarbeitern geprüft werden.
Google-Ökosystem: Daten werden mit Suchverlauf, YouTube, Gmail verknüpft.
Mistral:
Standard: Training AN für Consumer-VersionConsumer-VersionDie kostenlose oder günstige Version für Privatnutzer (z.B. über die Website oder App). Im Gegensatz zur Enterprise/API-Version werden hier oft Chatdaten fürs Training genutzt..
Opt-out: Einfach über Settings → Training deaktivieren.
Enterprise/API: Zero Data RetentionZDRNull-Daten-Speicherung: Der Anbieter speichert keine Chatverläufe und nutzt keine Daten fürs Training. Standard bei Enterprise- und API-Zugängen, aber nicht bei kostenlosen Versionen. (ZDR) — keine Nutzung für Training, vertraglich garantiert.
EU-Server: Verfügbar für DSGVO-Konformität.
Open Source: Modelle können lokal gehostet werden (komplette Datenkontrolle).
Perplexity:
Standard: Training AN, auch für Pro-Nutzer.
Opt-out: Einstellungen → AI Data Usage → AUSschalten.
Inkognito-ModusInkognitoEin Modus bei Perplexity, in dem keine Chatverläufe gespeichert und keine Daten fürs Training genutzt werden. Muss bei jedem neuen Chat manuell aktiviert werden - kein dauerhafter Standard.: Speichert nichts, muss aber manuell aktiviert werden.
Problem: Perplexity nutzt APIs von OpenAI/Anthropic (Claude) — Daten durchlaufen deren Systeme.
API: Kein Training für API-Nutzer.
🔒
Wichtig: Selbst bei ausgeschaltetem Training speichern alle Anbieter Conversations für 30 Tage+ für „Sicherheit und Missbrauchserkennung". Außerdem: Opt-out verhindert nur zukünftiges Training — bereits gesammelte Daten bleiben im Trainingsdatensatz.
Datenschutz-Ranking
Claude: Kein Training ohne Opt-in, transparente 30-Tage-Retention.
Was sind Halluzinationen? KI-Modelle „halluzinierenHalluzinationWenn eine KI selbstbewusst falsche Informationen erfindet - z.B. nicht existierende Studien oder Gerichtsurteile. Das Modell weiß nicht, dass es lügt, weil es keinen Begriff von Wahrheit hat.", wenn sie selbstbewusst falsche Informationen präsentieren — erfundene Gerichtsurteile, nicht existierende Studien, falsche Fakten. Das Problem: Sie klingen dabei absolut überzeugend.
Fall 1: Mata v. Avianca (Mai 2023)
Der New Yorker Anwalt Steven Schwartz reichte eine Klageschrift ein, die 6 von 9 zitierten Gerichtsurteilen erfunden waren — alle von ChatGPT generiert. Als der Richter ihn bat, die Urteile vorzulegen, fragte Schwartz ChatGPT: „Sind diese Fälle echt?" ChatGPT: „Ja, das sind echte Fälle."
Schwartz reichte die „vollständigen Texte" ein — allesamt von ChatGPT erfunden, inklusive erfundener Zitate und interner Verweise. Der Richter nannte es „unprecedented" und verhängte eine $5.000-Strafe.
979 dokumentierte Fälle weltweit
Der französische Forscher Damien Charlotin führt eine Datenbank von Anwälten weltweit, die von KI-Halluzinationen erwischt wurden. Von 2 Fällen pro Woche (Frühjahr 2025) auf 2-3 Fälle pro Tag (Ende 2025). Die Zahlen steigen exponentiell.
Stanford-Studie: 17-33% Halluzinationsrate
Stanford University RegLab (Mai 2024) testete spezialisierte Rechts-KI-Tools (Lexis+ AI, Westlaw AI) — Tools, die als „halluzinationsfrei" beworben wurden. Ergebnis:
Lexis+ AI: 17% Halluzinationsrate
Westlaw AI: 33% Halluzinationsrate
Selbst bei Tools, die explizit für juristische Arbeit entwickelt wurden und Zugriff auf echte Rechtsdatenbanken haben.
Warum halluzinieren KI-Modelle?
KI-Sprachmodelle funktionieren probabilistischProbabilistischWahrscheinlichkeitsbasiert: Das Modell berechnet für jedes nächste Wort, welches statistisch am wahrscheinlichsten passt - basierend auf Mustern in Milliarden Textseiten. Es versteht nicht, was es sagt. — sie berechnen, welches Wort als nächstes am wahrscheinlichsten ist, basierend auf Mustern in TrainingsdatenTrainingsdatenMilliarden von Texten aus dem Internet, Büchern, Wikipedia und anderen Quellen, mit denen ein KI-Modell trainiert wird. Die Qualität und der Umfang dieser Daten bestimmen, was die KI kann und weiß.. Sie haben kein Verständnis von „wahr" oder „falsch". Wenn du eine schwierige Frage stellst, für die es keine guten Antworten in den Trainingsdaten gibt, erfindet die KI eine plausibel klingende Antwort.
Fazit: Je schwieriger deine Frage, desto wahrscheinlicher halluziniert das Modell — weil es dir gefallen will und eine plausible Antwort generiert, auch wenn keine Fakten vorhanden sind.
Was bedeutet das praktisch?
Niemals blind vertrauen. Quellen IMMER prüfen, besonders bei Fakten, Studien, Statistiken, Zitaten.
Perplexity ist besser für Recherche: Gibt immer Quellen an, die man verifizieren kann.
Claude & ChatGPT: Bei Websuche aktiviert, geben sie oft Quellen an — aber auch dann prüfen.
Kreatives Schreiben = OK. Fakten = VORSICHT.
27. Februar 2026 — Was gestern passierte
Pentagon vs. Anthropic: Ethik oder Pragmatismus?
Am 27. Februar 2026 eskalierte ein Konflikt zwischen dem US-Verteidigungsministerium und Anthropic (Hersteller von Claude). Das Pentagon setzte Anthropic eine Frist bis 17:01 Uhr: Entferne die Einschränkungen für Massenüberwachung und autonome Waffen, oder verliere den 200-Millionen-Dollar-Vertrag.
Anthropic-CEO Dario Amodei lehnte ab: „Wir können in gutem Gewissen nicht zustimmen." Das Unternehmen bestand darauf, dass Claude nicht für Massenüberwachung von US-Bürgern oder vollautonome WaffensystemeAutonome WaffenWaffensysteme, die ohne menschliche Entscheidung eigenständig Ziele auswählen und angreifen können. International hochumstritten, da sie die menschliche Kontrolle über Tötungsentscheidungen entfernen. eingesetzt werden darf.
Präsident Trump ordnete an: „Alle Bundesbehörden müssen die Nutzung von Anthropic SOFORT einstellen." Verteidigungsminister Pete Hegseth erklärte Anthropic zum „Supply Chain RiskSupply Chain RiskLieferketten-Risiko - eine offizielle US-Einstufung, die normalerweise für feindliche ausländische Unternehmen reserviert ist (z.B. Huawei). Dass ein US-Unternehmen so eingestuft wird, ist beispiellos." — eine Einstufung, die normalerweise für ausländische Gegner reserviert ist.
Stunden später: OpenAI-CEO Sam Altman verkündete, sein Unternehmen habe einen Deal mit dem Pentagon geschlossen — angeblich mit den gleichen „roten Linien" (keine Massenüberwachung, keine autonomen Waffen).
Was ist der Unterschied?
Unklar. OpenAI behauptet, die Einschränkungen seien identisch zu Anthropics Forderungen. Anthropic sagt: Das Pentagon habe sich vorbehalten, die Regeln „bei Bedarf" außer Kraft setzen zu können. Anthropic wollte verbindliche Garantien. OpenAI akzeptierte das Pentagon-Versprechen, sich an „bestehende Gesetze und Richtlinien" zu halten.
Kontext: OpenAI & Militär
Im Januar 2024 entfernte OpenAI das Verbot militärischer Nutzung aus seinen Nutzungsbedingungen. Seitdem arbeitet OpenAI aktiv mit dem Pentagon zusammen. Gestern (27. Feb 2026) wurde dieser Deal formalisiert.
Was bedeutet das?
Diese Entwicklung zeigt unterschiedliche Prioritäten:
Anthropic: Bereit, 200 Mio. Dollar und den US-Regierungsmarkt zu verlieren, um an ethischen Prinzipien festzuhalten.
OpenAI: Akzeptiert Pentagon-Deal mit „gleichen" Einschränkungen, aber ohne verbindliche Garantien.
Für datenschutzbewusste Nutzer ist die Frage: Vertraue ich einem Unternehmen, das Geld über Prinzipien stellt — oder einem, das für Prinzipien auf Geld verzichtet?
💡 Fazit — Welcher Assistent für welchen Zweck?
Datenschutz-Priorität: Claude (kein Training ohne Opt-in, Pentagon-Rauswurf zeigt Prinzipientreue) oder Mistral (EU-basiert, DSGVO-konform).
Coding & Mathematik: ChatGPT (GPT-5.2) oder Claude (Opus 4.6) — beide stark, aber unterschiedliche Datenschutzmodelle.
Google-Ökosystem: Gemini (Gmail, Drive, Kalender-Integration) — aber Daten werden verknüpft, 18 Monate Speicherung.
Marktführer (trotz Bedenken): ChatGPT (größte Nutzerbasis, aber Training standard, Pentagon-Deal seit gestern).
Wichtigste Regel für alle: Niemals blind vertrauen. Quellen prüfen, Fakten verifizieren. Für aktuelle Informationen Websuche aktivieren oder Perplexity nutzen.
Quellen & Nachweise
[1]
ALLMO: Knowledge Cutoff Dates LLMs (Feb 2026)
Claude 4.6 Sonnet: Aug 2025 (reliable), Jan 2026 (training). ChatGPT 5.2: Aug 2025. Gemini 3: Jan 2025.