Produkt-Update

5 Min. Lesezeit

OpenClaw v2026.4.11: ChatGPT-Import, strukturierter Chat & besseres Video

ChatGPT-Conversation-Import in die Memory Wiki, strukturierte Chat-Bubbles, Video-Generierungs-Upgrades, Plugin-Setup-Deskriptoren und Fixes für WhatsApp, Telegram, Teams und mehr.

OpenClaw v2026.4.11 ist da. Diesmal ist das Hauptfeature der ChatGPT-Conversation-Import für die Memory Wiki, damit dein Agent aus Gesprächen lernen kann, die du bereits woanders geführt hast. Dazu kommen strukturierte Chat-Bubbles in der Control UI, merkliche Upgrades bei der Video-Generierung und eine Reihe von Fixes für Messaging-Plattformen. Hier ist, was sich geändert hat.

ChatGPT-Import für die Memory Wiki

Du kannst jetzt deinen ChatGPT-Conversation-Verlauf direkt in die Memory Wiki importieren. Das heißt: All diese nützlichen Gespräche, die du in den letzten Monaten mit ChatGPT geführt hast, können Teil der persistenten Wissensbasis deines Agenten werden.

Die Dreaming-UI hat zwei neue Untertabs dazu bekommen: "Imported Insights" zeigt kompilierte Wiki-Seiten, die aus importierten Chats erstellt wurden. "Memory Palace diary" lässt dich vollständige Quellseiten und einzelne Konversationen durchsuchen. Du kannst nachvollziehen, was importiert wurde, wie es kompiliert wurde, und jeden Wiki-Eintrag bis zu seiner Quelle zurückverfolgen.

Wenn du ChatGPT für Recherche, Brainstorming oder Projektplanung genutzt hast, bekommt dein OpenClaw-Agent Zugriff auf denselben Kontext, ohne dass du manuell kopieren musst.

Strukturierte Chat-Bubbles in der Control UI

Die Control UI und der Webchat rendern Assistant-Antworten jetzt mit richtiger Struktur. Medien-Anhänge, Antwort-Referenzen und Sprach-Direktiven werden als eigenständige Chat-Bubbles angezeigt statt als reiner Text. Das macht Konversationen im Web-Interface deutlich übersichtlicher, besonders wenn der Agent mehrere Inhaltstypen in einer Antwort sendet.

Es gibt auch einen neuen [embed ...] Rich-Output-Tag zum Einbetten von Inhalten. Externe Embed-URLs sind konfigurationsgesteuert freigeschaltet, du kontrollierst, welche Domains erlaubt sind. Sicherheit by default.

Video-Generierungs-Upgrades

Die Video-Generierung hat in diesem Release mehrere praktische Verbesserungen erhalten:

  • Generierte Assets werden jetzt nur noch per URL geliefert, sodass große Dateien nicht mehr im Speicher während der Verarbeitung liegen
  • Typisierte providerOptions geben dir echtes Autocomplete und Validierung bei der Konfiguration von Video-Providern
  • Referenz-Audio-Inputs erlauben es dir, die Video-Generierung mit einem Audiotrack zu steuern
  • Pro-Asset-Rollenhinweise lassen dich spezifizieren, wie jedes Referenzbild oder -video das Ergebnis beeinflussen soll
  • Adaptive Seitenverhältnis-Unterstützung wählt die besten Dimensionen basierend auf deinem Input
  • Höheres Image-Input-Limit bedeutet, dass du mehr Referenzbilder an einen einzelnen Generierungs-Request übergeben kannst

Plugin-Setup-Deskriptoren

Plugin-Manifeste können jetzt eigene Aktivierungs- und Setup-Deskriptoren deklarieren. Das deckt Auth-Flows, Pairing-Schritte und Konfigurations-UI ab. Bisher brauchte jeder Plugin-Typ Sonderbehandlung im OpenClaw-Core. Jetzt beschreibt das Plugin selbst, wie sein Setup aussieht. Das macht es einfacher, neue Plugins zu bauen und zu verteilen, ohne Core-Änderungen.

Plattform-Verbesserungen

Microsoft Teams: Reaktionen

Teams unterstützt jetzt Reaktionen. Du kannst Reaktionen senden und auflisten, mit korrekter Graph-API-Paginierung und delegiertem OAuth für den Auth-Flow. Wenn du einen Teams-Bot betreibst, bring dich das näher an Feature-Parität mit anderen Kanälen.

Feishu-Integration

Die Feishu-Integration parst jetzt reichhaltigeren Kontext aus Nachrichten und Dokumenten. Kommentar-Reaktionen und Tip-Feedback funktionieren in Dokument-Kommentar-Sessions, was Feishu-Bots reaktiver macht.

Ollama-Performance

Die Ollama-Modellerkennung cached jetzt /api/show Context-Window- und Capability-Metadaten. Wenn du mehrere Ollama-Modelle konfiguriert hast, wirst du einen schnelleren Start und weniger redundante API-Aufrufe bei der Modellerkennung bemerken.

Model-Provider-Debug

Debug-Logs für eingebettete Agenten zeigen jetzt, wie OpenAI-kompatible Endpunkte klassifiziert werden. Wenn du jemals darüber gestolpert bist, warum ein Modell auf eine bestimmte Art geroutet wird, sparen dir diese Logs Zeit.

Bugfixes

Ein solides Paket an Fixes in diesem Release über mehrere Plattformen:

  • OpenAI/Codex OAuth: invalid_scope-Fehler beim Sign-in behoben
  • Audio-Transkription: für OpenAI-, Groq- und Mistral-Provider repariert
  • macOS Talk Mode: Mic-Berechtigung erfordert kein zweites Toggle mehr
  • WhatsApp: Default-Account-Handling repariert, Reaktionen werden korrekt geroutet, Image-Edit-Pfade bleiben erhalten
  • Telegram: Topic-scoped Session-Initialisierung repariert
  • ACP/Agents: Child-Run-Fortschritts-Chatter leckt nicht mehr in Parent-Konversationen
  • Google/Veo: Nicht unterstütztes numberOfVideos-Feld entfernt, das Fehler verursacht hat
  • Agent-Failover: auf aktuellen Versuch begrenzt statt veraltete Historie zu ziehen
  • MiniMax/OAuth: Config-Patch schreibt jetzt korrektes Auth-Routing

So aktualisierst du

npm install -g openclaw@latest

Oder mit Docker:

docker pull openclaw/openclaw:latest

Verifizieren:

openclaw version

Was du zuerst ausprobieren solltest

ChatGPT-Import, wenn du bestehende ChatGPT-Gespräche mit nützlichem Kontext hast. Exportiere deinen Verlauf, importiere ihn in die Memory Wiki, und lass deinen Agenten auf dem aufbauen, was du bereits weißt.

Strukturierte Chat-Bubbles, wenn du die Control UI oder den Webchat regelmäßig nutzt. Das neue Rendering macht mehrteilige Antworten deutlich lesbarer.

Video-Generierungs-Upgrades, wenn du Video-Arbeit mit OpenClaw machst. Allein die URL-basierte Auslieferung macht einen merklichen Unterschied bei der Zuverlässigkeit für längere Clips.

Need help from people who already use this stuff?

Fragen zum Update?

Die Claw Crew Community hilft bei Migrationsfragen, Konfigurationsproblemen oder beim Nutzen der neuen Features.