OpenClaw v2026.4.11 ist da. Diesmal ist das Hauptfeature der ChatGPT-Conversation-Import für die Memory Wiki, damit dein Agent aus Gesprächen lernen kann, die du bereits woanders geführt hast. Dazu kommen strukturierte Chat-Bubbles in der Control UI, merkliche Upgrades bei der Video-Generierung und eine Reihe von Fixes für Messaging-Plattformen. Hier ist, was sich geändert hat.
ChatGPT-Import für die Memory Wiki
Du kannst jetzt deinen ChatGPT-Conversation-Verlauf direkt in die Memory Wiki importieren. Das heißt: All diese nützlichen Gespräche, die du in den letzten Monaten mit ChatGPT geführt hast, können Teil der persistenten Wissensbasis deines Agenten werden.
Die Dreaming-UI hat zwei neue Untertabs dazu bekommen: "Imported Insights" zeigt kompilierte Wiki-Seiten, die aus importierten Chats erstellt wurden. "Memory Palace diary" lässt dich vollständige Quellseiten und einzelne Konversationen durchsuchen. Du kannst nachvollziehen, was importiert wurde, wie es kompiliert wurde, und jeden Wiki-Eintrag bis zu seiner Quelle zurückverfolgen.
Wenn du ChatGPT für Recherche, Brainstorming oder Projektplanung genutzt hast, bekommt dein OpenClaw-Agent Zugriff auf denselben Kontext, ohne dass du manuell kopieren musst.
Strukturierte Chat-Bubbles in der Control UI
Die Control UI und der Webchat rendern Assistant-Antworten jetzt mit richtiger Struktur. Medien-Anhänge, Antwort-Referenzen und Sprach-Direktiven werden als eigenständige Chat-Bubbles angezeigt statt als reiner Text. Das macht Konversationen im Web-Interface deutlich übersichtlicher, besonders wenn der Agent mehrere Inhaltstypen in einer Antwort sendet.
Es gibt auch einen neuen [embed ...] Rich-Output-Tag zum Einbetten von Inhalten. Externe Embed-URLs sind konfigurationsgesteuert freigeschaltet, du kontrollierst, welche Domains erlaubt sind. Sicherheit by default.
Video-Generierungs-Upgrades
Die Video-Generierung hat in diesem Release mehrere praktische Verbesserungen erhalten:
- Generierte Assets werden jetzt nur noch per URL geliefert, sodass große Dateien nicht mehr im Speicher während der Verarbeitung liegen
- Typisierte providerOptions geben dir echtes Autocomplete und Validierung bei der Konfiguration von Video-Providern
- Referenz-Audio-Inputs erlauben es dir, die Video-Generierung mit einem Audiotrack zu steuern
- Pro-Asset-Rollenhinweise lassen dich spezifizieren, wie jedes Referenzbild oder -video das Ergebnis beeinflussen soll
- Adaptive Seitenverhältnis-Unterstützung wählt die besten Dimensionen basierend auf deinem Input
- Höheres Image-Input-Limit bedeutet, dass du mehr Referenzbilder an einen einzelnen Generierungs-Request übergeben kannst
Plugin-Setup-Deskriptoren
Plugin-Manifeste können jetzt eigene Aktivierungs- und Setup-Deskriptoren deklarieren. Das deckt Auth-Flows, Pairing-Schritte und Konfigurations-UI ab. Bisher brauchte jeder Plugin-Typ Sonderbehandlung im OpenClaw-Core. Jetzt beschreibt das Plugin selbst, wie sein Setup aussieht. Das macht es einfacher, neue Plugins zu bauen und zu verteilen, ohne Core-Änderungen.
Plattform-Verbesserungen
Microsoft Teams: Reaktionen
Teams unterstützt jetzt Reaktionen. Du kannst Reaktionen senden und auflisten, mit korrekter Graph-API-Paginierung und delegiertem OAuth für den Auth-Flow. Wenn du einen Teams-Bot betreibst, bring dich das näher an Feature-Parität mit anderen Kanälen.
Feishu-Integration
Die Feishu-Integration parst jetzt reichhaltigeren Kontext aus Nachrichten und Dokumenten. Kommentar-Reaktionen und Tip-Feedback funktionieren in Dokument-Kommentar-Sessions, was Feishu-Bots reaktiver macht.
Ollama-Performance
Die Ollama-Modellerkennung cached jetzt /api/show Context-Window- und Capability-Metadaten. Wenn du mehrere Ollama-Modelle konfiguriert hast, wirst du einen schnelleren Start und weniger redundante API-Aufrufe bei der Modellerkennung bemerken.
Model-Provider-Debug
Debug-Logs für eingebettete Agenten zeigen jetzt, wie OpenAI-kompatible Endpunkte klassifiziert werden. Wenn du jemals darüber gestolpert bist, warum ein Modell auf eine bestimmte Art geroutet wird, sparen dir diese Logs Zeit.
Bugfixes
Ein solides Paket an Fixes in diesem Release über mehrere Plattformen:
- OpenAI/Codex OAuth: invalid_scope-Fehler beim Sign-in behoben
- Audio-Transkription: für OpenAI-, Groq- und Mistral-Provider repariert
- macOS Talk Mode: Mic-Berechtigung erfordert kein zweites Toggle mehr
- WhatsApp: Default-Account-Handling repariert, Reaktionen werden korrekt geroutet, Image-Edit-Pfade bleiben erhalten
- Telegram: Topic-scoped Session-Initialisierung repariert
- ACP/Agents: Child-Run-Fortschritts-Chatter leckt nicht mehr in Parent-Konversationen
- Google/Veo: Nicht unterstütztes numberOfVideos-Feld entfernt, das Fehler verursacht hat
- Agent-Failover: auf aktuellen Versuch begrenzt statt veraltete Historie zu ziehen
- MiniMax/OAuth: Config-Patch schreibt jetzt korrektes Auth-Routing
So aktualisierst du
npm install -g openclaw@latestOder mit Docker:
docker pull openclaw/openclaw:latestVerifizieren:
openclaw versionWas du zuerst ausprobieren solltest
ChatGPT-Import, wenn du bestehende ChatGPT-Gespräche mit nützlichem Kontext hast. Exportiere deinen Verlauf, importiere ihn in die Memory Wiki, und lass deinen Agenten auf dem aufbauen, was du bereits weißt.
Strukturierte Chat-Bubbles, wenn du die Control UI oder den Webchat regelmäßig nutzt. Das neue Rendering macht mehrteilige Antworten deutlich lesbarer.
Video-Generierungs-Upgrades, wenn du Video-Arbeit mit OpenClaw machst. Allein die URL-basierte Auslieferung macht einen merklichen Unterschied bei der Zuverlässigkeit für längere Clips.
Need help from people who already use this stuff?
Fragen zum Update?
Die Claw Crew Community hilft bei Migrationsfragen, Konfigurationsproblemen oder beim Nutzen der neuen Features.