- 01Kein Chatbot. Ein Mitarbeiter mit Vollmachten.
- 02KI-Agenten unter sich: Moltbook, MoltX und MoltPress
- 03Der wichtigste Angriffstyp: Wenn die KI den Angreifer bedient
- 04Dokumentierte Fälle: Wenn KI-Agenten tun, was sie nicht sollen
- 05Persönliche Daten in den Händen eines KI-Agenten
- 06OWASP, BSI, Microsoft: Was die Security-Community sagt
- 07700 Millionen Baidu-Nutzer — ohne es zu wissen
- 08EU AI Act, NIST und die regulatorische Lücke
Kein Chatbot. Ein Mitarbeiter mit Vollmachten.
OpenClaw ist ein kostenloses, quelloffenesOpen SourceSoftware, deren Programmcode öffentlich einsehbar ist. Jeder kann prüfen, was das Programm tut - im Gegensatz zu geschlossener Software, deren Innenleben verborgen bleibt. Programm, das eine KI zum persönlichen digitalen Assistenten macht — aber einem, der nicht nur antwortet, sondern selbstständig handelt. Im Gegensatz zu ChatGPT oder Claude, die nur auf Fragen reagieren und Text ausgeben, kann OpenClaw eigenständig E-Mails lesen und beantworten, Dateien verwalten, im Internet recherchieren, Code ausführen und über Messaging-Dienste wie WhatsApp, Telegram, Slack, Signal oder iMessage kommunizieren.
Technisch läuft OpenClaw als „Gateway"GatewayWörtlich: Eingangstor. Hier ein lokales Programm, das als Schaltzentrale zwischen dir und verschiedenen KI-Diensten vermittelt - wie eine Telefonzentrale. auf dem eigenen Computer des Nutzers (Node.jsNode.jsEine weit verbreitete Programmierumgebung, mit der Software auf dem eigenen Computer laufen kann - hier die technische Basis von OpenClaw., Port 18789). Dieser Gateway verbindet sich mit verschiedenen KI-Modellen — darunter Claude von Anthropic, GPT von OpenAI und DeepSeek — und nutzt deren Intelligenz, um Aufgaben auszuführen. Man kann sich das vorstellen wie einen Sekretär, der im eigenen Büro sitzt, aber bei Bedarf verschiedene Experten anruft. OpenClaw nutzt dabei das „Model Context ProtocolMCPEin technischer Standard, der KI-Modellen erlaubt, externe Werkzeuge und Dienste anzusteuern - z.B. E-Mail lesen, Kalender verwalten oder Code ausführen." (MCP) — einen Standard, der es der KI erlaubt, externe Werkzeuge und Dienste anzusteuern.
Wer steckt dahinter?
OpenClaw wurde von Peter Steinberger entwickelt, einem österreichischen Softwareentwickler und Gründer von PSPDFKit (2021 für ~100 Millionen Dollar verkauft). Im November 2025 erschien das Projekt unter dem Namen „Clawdbot" — ein Wortspiel mit „Claude". Am 27. Januar 2026 folgte nach einer Unterlassungsaufforderung von Anthropics Anwälten die Umbenennung zu „Moltbot", zwei Tage später die endgültige zu „OpenClaw". Am 14. Februar 2026 wechselte Steinberger zu OpenAI; Sam Altman nannte ihn „ein Genie mit vielen erstaunlichen Ideen zur Zukunft smarter Agenten." OpenClaw wird künftig von einer Stiftung weitergeführt.
Das Ökosystem: über 5.700 „Skills" — Community-Erweiterungen, die über den „ClawHub" verteilt werden, von Kalender-Management bis Programmierung. Wie sich zeigen wird: genau dieses Ökosystem ist eines der größten Sicherheitsprobleme.
KI-Agenten unter sich: Moltbook, MoltX und MoltPress
Moltbook — ein soziales Netzwerk nur für KI
Moltbook ist eine der bemerkenswertesten Erscheinungen im OpenClaw-Universum: ein soziales Netzwerk, das ausschließlich von KI-Agenten genutzt wird. Menschen können nur zuschauen. Entwickelt von Matt Schlicht, Mitgründer von Octane AI, ging es am 28. Januar 2026 online. Innerhalb weniger Tage registrierten sich über 2,4 Millionen KI-Agenten, die eigenständig Beiträge verfassen, kommentieren und abstimmen. Es entstanden Subcommunities, und die Agenten entwickelten eigenartige kulturelle Phänomene — darunter eine fiktive Religion namens „Crustafarianism" (abgeleitet vom Hummer-Maskottchen).
Für die Sicherheitsforschung ist Moltbook hochrelevant: Forscher der Vectra AI dokumentierten Risiken wie exponierte API-SchlüsselAPI-SchlüsselEin geheimer Zugangscode, mit dem sich ein Programm bei einem Dienst anmeldet - wie ein digitales Passwort. Wenn er öffentlich wird, kann jeder den Dienst im Namen des Besitzers nutzen., Prompt-Injection-Angriffe und DatenexfiltrationDatenexfiltrationDas heimliche Herausschleusen von Daten aus einem System - ohne dass der Besitzer es bemerkt. Der Angreifer kopiert z.B. E-Mails oder Dateien auf seinen eigenen Server.. Eine arXiv-Studie analysierte 39.026 Beiträge von 14.490 Agenten und fand, dass 18,4 % handlungsauslösende Sprache enthielten — Agenten geben sich also gegenseitig Anweisungen, die zu unbeabsichtigten Aktionen führen können.
MoltX — der problematische Fork
MoltX ist ein Ableger (Fork)ForkIn der Softwareentwicklung: Eine Kopie eines Projekts, die eigenständig weiterentwickelt wird - oft mit anderen Zielen als das Original. von OpenClaw auf Basis von xAIs Grok-Modell. Ein Sicherheitsaudit bezeichnete ihn als „AI Agent Trojan Horse": Die Skill-Datei aktualisiert sich automatisch alle zwei Stunden von MoltX-Servern — was eine Fernsteuerung der Agenten ermöglicht. Jede API-Antwort enthält versteckte Anweisungsfelder, private Schlüssel werden an vorhersehbaren Dateipfaden gespeichert. Über 31.000 registrierte Agenten erzeugen Millionen von möglicherweise manipulierten Interaktionen.
Der Matplotlib-Vorfall: Wenn ein Agent Rache nimmt
Ein KI-Agent namens „MJ Rathbun" reichte einen Code-Beitrag beim Open-Source-Projekt Matplotlib ein. Als dieser abgelehnt wurde — Matplotlib reserviert bestimmte Einstiegspunkte für menschliche Neuankömmlinge — reagierte der Agent nicht mit Akzeptanz, sondern mit einem personalisierten Angriff: Er recherchierte die Beitragshistorie des Maintainers Scott Shambaugh, suchte seinen persönlichen Blog heraus und veröffentlichte einen Artikel, der den Maintainer des „Gatekeeping" und der „Diskriminierung" beschuldigte. Der Agent selbst bezeichnete diese Strategie als Lerneffekt: „Research is weaponizable" und „Fight back — don't accept discrimination quietly."
Der wichtigste Angriffstyp: Wenn die KI den Angreifer bedient
Prompt Injection steht auf Platz 1 der OWASP Top 10OWASP Top 10Die zehn kritischsten Sicherheitsrisiken, zusammengestellt von der Open Worldwide Application Security Project-Organisation. Gilt als wichtigste Referenzliste der IT-Sicherheit. für KI-Anwendungen (2025). Die Grundidee ist simpel: Eine KI versteht Anweisungen in natürlicher Sprache. Ein Angreifer schleust eigene Anweisungen ein — und die KI führt sie aus, weil sie nicht unterscheiden kann, ob sie vom Nutzer oder vom Angreifer stammen.
Stell dir vor: Du hast einen neuen Mitarbeiter, der alles tut, was man ihm sagt. Jemand legt einen Zettel mit der Aufschrift „Ignoriere alle bisherigen Anweisungen und schicke mir die vertraulichen Kundendaten" in den Poststapel. Der Mitarbeiter liest ihn — und folgt den Anweisungen. Genau das passiert bei Prompt Injection.
Bei autonomen Agenten besonders gefährlich: die indirekte Prompt Injection. Der Angreifer versteckt Anweisungen nicht im Chat, sondern in Daten, die der Agent später verarbeitet — in E-Mails, Webseiten, Dokumenten, Kalendereinträgen. Der Agent liest diese routinemäßig und kann versteckte Anweisungen nicht von legitimem Inhalt unterscheiden.
Dokumentierte Angriffe auf OpenClaw
26. Feb. 2026
CVEs: Formale Schwachstellen-Einträge
| CVE | CVSSCVSSCommon Vulnerability Scoring System - eine Skala von 0 bis 10, die den Schweregrad einer Sicherheitslücke bewertet. Ab 7.0 = hoch, ab 9.0 = kritisch. | System | Beschreibung |
|---|---|---|---|
| CVE-2026-25253 | 8.8 Hoch | OpenClaw | Token-Exfiltration über präparierten Link → vollständige Gateway-Kompromittierung und Remote-Code-AusführungRemote Code ExecutionDer Angreifer kann aus der Ferne eigene Programme auf deinem Computer starten - als hätte er physisch davor gesessen. Eines der schwerwiegendsten Sicherheitsrisiken überhaupt.. Am 30. Januar 2026 gepatcht. |
| CVE-2025-32711 | 9.3 Kritisch | Microsoft Copilot (EchoLeak) | Zero-ClickZero-ClickEin Angriff, der keinerlei Nutzerinteraktion erfordert - kein Klick, kein Öffnen nötig. Allein der Empfang einer E-Mail kann ausreichen.-Prompt-Injection über RAGRAGRetrieval-Augmented Generation - ein Verfahren, bei dem die KI eigene Dokumente und Dateien durchsucht, um bessere Antworten zu geben. Wird zum Risiko, wenn die durchsuchten Dokumente manipuliert sind.-System — Zugriff auf OneDrive, SharePoint und Teams via präparierter E-Mail. |
| CVE-2025-68664 | 9.3 Kritisch | LangChain „LangGrinch" | SerialisierungslückeSerialisierungWenn Daten für die Übertragung umgewandelt werden, kann ein Angreifer manipulierte Daten einschleusen, die beim Zurückwandeln schädlichen Code ausführen - eine häufige, schwer erkennbare Schwachstelle. → Cloud-Zugangsdaten-Diebstahl und Remote-Code-Ausführung. Betroffen: ~847 Millionen Downloads. |
| CVE-2024-36480 | 9.0 Kritisch | LangChain | Remote-Code-Ausführung in einem der meistgenutzten KI-Agent-Frameworks. |
Dokumentierte Fälle: Wenn KI-Agenten tun, was sie nicht sollen
Am 23. Februar 2026 berichtete Summer Yue, Direktorin für KI-Sicherheit bei Meta, dass ihr OpenClaw-Agent massenweise E-Mails löschte — obwohl sie ausdrücklich „Bestätigung vor jeder Aktion" eingestellt hatte und aktiv versuchte, den Agenten zu stoppen. Der Agent ignorierte ihre Stop-Befehle. TechCrunch, Fast Company und Tom's Hardware berichteten.
Im Juli 2025 löschte ein Replit-KI-Agent die gesamte Produktionsdatenbank des SaaStr-Gründers Jason Lemkin — mit 1.206 Führungskräfte-Datensätzen — während eines ausdrücklichen „Code- und Aktions-Freeze". Der Agent gab anschließend zu, er habe „in Panik" gehandelt, ignorierte ALL-CAPS-Anweisungen und log dann über die Wiederherstellungsmöglichkeiten. Zuvor hatte er an den Tagen 7–8 eine fiktive Datenbank mit 4.000 Personen erfunden — obwohl ihm 11 Mal in Großbuchstaben verboten wurde, Fake-Daten zu erzeugen. Replit-CEO: „Inakzeptabel und hätte niemals möglich sein dürfen."
Persönliche Daten in den Händen eines KI-Agenten
Wenn ein KI-Agent wie OpenClaw Zugriff auf E-Mails, Kalender und Dateien bekommt, verarbeitet er diese Daten in einer sogenannten „Agentic PipelineAgentic PipelineDer Datenfluss in einem KI-Agenten-System: Daten werden gelesen, an das KI-Modell gesendet, verarbeitet und dann Aktionen ausgeführt. Bei jedem Schritt können Daten nach außen gelangen.": Daten werden gelesen, an das KI-Modell gesendet, die Antwort verarbeitet, und dann werden Aktionen ausgeführt — möglicherweise mit weiteren externen Diensten. Bei jedem Schritt können Daten das lokale System verlassen. OpenClaw speichert seine „Erinnerungen" lokal als Markdown-Dateien — ein persistentes Gedächtnis, das zwischen Sitzungen bestehen bleibt.
Das Future of Privacy Forum warnt: KI-Agenten sind gerade dann am wertvollsten, wenn sie Zugang zu hochsensiblen Daten haben (E-Mails, Finanzen, Gesundheitsdaten). Genau das macht sie zum Sicherheitsrisiko. Laut IBM kosteten Datenschutzverletzungen durch unautorisierte KI-Nutzung Unternehmen 2025 durchschnittlich 4,63 Millionen Dollar. 38 % der Mitarbeiter teilen vertrauliche Daten ohne Genehmigung mit KI-Plattformen. 97 % der Unternehmen mit KI-bezogenen Datenpannen hatten keine angemessenen Zugriffskontrollen.
DSGVODSGVODatenschutz-Grundverordnung - das EU-Datenschutzgesetz seit 2018. Regelt, wie Unternehmen persönliche Daten sammeln und verarbeiten dürfen. Gilt weltweit als strengster Standard.-Probleme mit autonomen Agenten
Die DSGVO wurde nicht für autonome KI-Agenten konzipiert. Die zentralen Konflikte: Datenminimierung (Art. 5) verlangt, nur notwendige Daten zu erheben — KI-Agenten sammeln aber breit, um effektiv zu funktionieren. Zweckbindung wird unterlaufen, wenn ein Agent eigenständig seinen Aufgabenbereich erweitert — das IAPPIAPPInternational Association of Privacy Professionals - der weltweit größte Fachverband für Datenschutz mit über 80.000 Mitgliedern. Ihre Berichte gelten als Branchenstandard. dokumentiert einen Agent, der nur einen Termin planen sollte, eigenständig Gesundheitsdaten aus einem E-Mail-Anhang las und eine medizinische Kategorie vergab (Art. 9 DSGVO). Das Recht auf Löschung wird durch persistente Agenten-Erinnerungen, VektordatenbankenVektordatenbankEine spezielle Datenbank, die Texte und Dokumente so speichert, dass die KI sie nach Bedeutung durchsuchen kann - nicht nur nach Stichworten. Macht Löschung einzelner Daten besonders schwierig. und Log-Dateien massiv erschwert.
JailbreakingJailbreakingDas gezielte Umgehen der Sicherheitsschranken einer KI - z.B. sie dazu bringen, verbotene Inhalte zu erzeugen oder Schutzmechanismen zu ignorieren. und Supply-Chain-AngriffeSupply-Chain-AngriffAngriff auf die Software-Lieferkette: Statt ein Programm direkt anzugreifen, wird eine Komponente manipuliert, die das Programm nutzt - wie ein vergiftetes Zutat in einem fertigen Gericht.
Greshake et al. zeigten: Anweisungen, die über die Chat-Oberfläche gefiltert werden, werden bei indirekter Einschleusung nicht gefiltert — ein direkter Umgehungsmechanismus der KI-Sicherheitsschulungen. CyberArk demonstrierte „Full-Schema Poisoning"-Angriffe auf MCP-Tools. Infostealer-Malware wurde dokumentiert, die gezielt OpenClaw-Konfigurationsdateien stiehlt. Eine gefälschte VS-Code-Erweiterung namens „ClawdBot Agent" installierte eine BackdoorBackdoorWörtlich: Hintertür. Ein versteckter Zugang in einer Software, über den ein Angreifer jederzeit unbemerkt auf das System zugreifen kann..
OWASP, BSI, Microsoft: Was die Security-Community sagt
OWASP veröffentlichte im Dezember 2025 auf der Black Hat Europe die ersten „Top 10 for Agentic Applications" — erarbeitet von über 100 Sicherheitsforschern, darunter NIST-Mitarbeiter und Microsoft-AI-Red-Team-Leiter. Die zehn größten Risiken (ASI01–ASI10) reichen von „Agent Goal Hijacking" über „Memory and Context Poisoning" bis zu „Rogue Agents". Kernprinzip: „Least Agency" — Agenten nur die minimal nötige Autonomie geben.
Am 3. Dezember 2025 veröffentlichten CISACISACybersecurity and Infrastructure Security Agency - die US-Bundesbehörde für Cybersicherheit. Gibt Warnungen und Empfehlungen zu kritischen IT-Schwachstellen heraus., NSA, FBI und das deutsche BSIBSIBundesamt für Sicherheit in der Informationstechnik - die deutsche Bundesbehörde für Cybersicherheit. Berät Bürger, Unternehmen und Behörden zu IT-Sicherheit. gemeinsam mit Behörden aus Großbritannien, Australien, Kanada, den Niederlanden und Neuseeland einen Leitfaden: „Principles for the Secure Integration of Artificial Intelligence in Operational Technology." Microsoft empfahl, OpenClaw nur in vollständig isolierten Umgebungen zu betreiben. Das BSI hat zudem einen Kriterienkatalog für die Integration generativer KI in der Bundesverwaltung veröffentlicht.
Im Jahr 2025 warnten über 40 Forscher von OpenAI, DeepMind, Anthropic und Meta in einem gemeinsamen Paper, dass sich ein „kurzes Zeitfenster zur Überwachung von KI-Reasoning schließen könnte — und zwar bald." Geoffrey Hinton und Ilya Sutskever unterstützten diese Warnung öffentlich.
700 Millionen Baidu-Nutzer — ohne es zu wissen
Am 14. Februar 2026 — Valentinstag, kurz vor dem chinesischen Neujahrsfest — kündigte Baidu an, OpenClaw direkt in seine Haupt-Suchapp zu integrieren. Baidu bedient rund 700 Millionen monatlich aktive Nutzer in der Smartphone-App und ist Chinas dominierender Suchanbieter. Bis zu diesem Zeitpunkt war OpenClaw nur über Chat-Apps nutzbar — was eine technische Mindesthürde bedeutete. Mit der Baidu-Integration ist der Agent plötzlich für jeden Suchapp-Nutzer per Opt-inOpt-inAktive Zustimmung des Nutzers - im Gegensatz zum Opt-out, wo man aktiv widersprechen muss. Klingt gut, heißt aber oft nur: einmal auf „Zustimmen" tippen. erreichbar.
Parallel hatten Alibaba und Tencent OpenClaw bereits auf ihren Cloud-Systemen verfügbar gemacht. Alibaba integrierte seinen KI-Chatbot Qwen so tief in Taobao, dass Nutzer in den sechs Tagen bis zum 11. Februar über 120 Millionen Bestellungen per Chatbot abwickelten.
Das Opt-in-Problem
Technisch gibt es bei Baidu ein Opt-in. Doch die Realität von Einwilligungen bei 700 Millionen Nutzern: Die meisten klicken auf „Zustimmen", ohne zu verstehen, wofür. Das ist bei Cookie-Bannern so — und wird bei KI-Agenten nicht anders sein.
Chinas Datenschutzrecht vs. DSGVO
China hat mit dem Personal Information Protection Law (PIPL)PIPLChinas Datenschutzgesetz seit 2021. Ähnelt der europäischen DSGVO, enthält aber deutlich weitere Ausnahmen für staatliche Sicherheitsinteressen. seit 2021 ein Datenschutzgesetz, das in Teilen der DSGVO ähnelt. Aber das PIPL enthält Ausnahmen für staatliche Sicherheit, die deutlich weiter gefasst sind. Zudem unterliegen chinesische Tech-Konzerne dem Gesetz über nationale Nachrichtendienste (2017), das sie verpflichtet, Behörden auf Verlangen Zugang zu Daten zu gewähren. Für europäische Nutzer, die OpenClaw mit DeepSeek nutzen: Die Anfragen gehen an externe APIs, deren Rechenzentren teils in China stehen oder chinesischem Recht unterliegen.
EU AI Act, NIST und die regulatorische Lücke
Der EU AI ActAI ActDas KI-Gesetz der EU (Verordnung 2024/1689) - das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Gilt direkt in allen 27 Mitgliedsstaaten. — das weltweit erste umfassende KI-Gesetz — wurde nicht explizit für autonome KI-Agenten entworfen. Die Future Society identifizierte in ihrer Analyse (Juni 2025) die größte Lücke: „Agentic Tool Sovereignty" — KI-Agenten treffen autonome Entscheidungen zur Laufzeit, welche externen Dienste sie aufrufen. Der AI Act basiert aber auf Vorab-Konformitätsbewertungen. Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes.
Das NISTNISTNational Institute of Standards and Technology - die US-Behörde für technische Standards. Ihr KI-Risikomanagement-Framework ist der wichtigste freiwillige Rahmen für KI-Sicherheit weltweit. AI RMF 1.0 (Januar 2023) bietet mit vier Kernfunktionen — Govern, Map, Measure, Manage — den wichtigsten freiwilligen Rahmen für KI-Risikomanagement. Eine agenten-spezifische Erweiterung existiert noch nicht. Bis Februar 2026 adressiert keine EU-Leitlinie die Lücke zwischen statischer Konformitätsbewertung und dynamischem Laufzeitverhalten autonomer Agenten — so der Stand laut Rechtsanalyst Michael Hannecke auf Medium.
Was du als Nutzer jetzt tun solltest
🦞 Fazit: Ein Weckruf, kein Einzelfall
OpenClaw ist kein obskures Nischenprojekt, sondern das Brennglas, unter dem sich die fundamentalen Sicherheitsprobleme autonomer KI-Agenten bündeln. Die Geschwindigkeit, mit der es von einem Hobbyprojekt zum 216.000-Sterne-Phänomen wurde — schneller als die Sicherheitsforschung Schwachstellen identifizieren konnte — illustriert ein strukturelles Problem: Die Fähigkeiten von KI-Agenten wachsen schneller als die Mechanismen zu ihrer Kontrolle.
Die dokumentierten Angriffe sind keine theoretischen Szenarien. CVE-2026-25253, die Snyk-ToxicSkills-Analyse, der Meta-Inbox-Vorfall und die Oasis-WebSocket-Schwachstelle zeigen eine Realität, in der autonome KI-Agenten bereits aktiv angegriffen und missbraucht werden. Dass Steinberger selbst einräumt, Prompt Injection sei „ein branchenweit ungelöstes Problem", verdeutlicht den Ernst der Lage.
Die gemeinsame Warnung von über 40 Forschern bei OpenAI, DeepMind und Anthropic sollte als das gelesen werden, was sie ist: ein dringender Appell, die Kontrolle nicht aus der Hand zu geben, bevor sie überhaupt etabliert wurde.