Zum Inhalt springen
tutorials · 7 min Lesezeit

Lokale Modelle mit Ollama in OpenClaw: ohne API-Key loslegen

Wie du Ollama als lokalen Modell-Provider in OpenClaw einrichtest, welche Konfiguration wirklich nötig ist und wo kleine lokale Setups an Grenzen stoßen.

openclaw ollama lokale-modelle tutorials

OpenClaw lässt sich nicht nur mit gehosteten APIs betreiben. Wenn du Modelle lokal auf deinem eigenen Rechner laufen lassen willst, ist Ollama ein direkter Einstiegspunkt. Das ist attraktiv, weil du ohne laufende API-Kosten testen kannst und sensible Prompts nicht sofort an einen externen Modellanbieter schickst.

Der Haken: Lokal heißt nicht automatisch gut genug für einen Agenten-Workflow. Genau darauf weist auch die OpenClaw-Dokumentation zu lokalen Modellen hin. Ein Modell kann lokal starten und trotzdem für lange Agenten-Prompts, Tool-Schemas oder Prompt-Injection-Abwehr zu schwach sein.

Für einen einfachen Start ist der Weg trotzdem überschaubar. OpenClaw unterstützt Ollamas native API und unterscheidet laut Dokumentation die Modi Local only, Cloud only und Cloud + Local. In diesem Tutorial geht es um den lokalen Pfad ohne externen API-Key für das Modell-Backend. Wichtig: Bei Ollama erwartet OpenClaw die native Basis-URL, also zum Beispiel http://127.0.0.1:11434 — nicht die OpenAI-kompatible /v1-Route.

Voraussetzungen

Du brauchst:

  • eine funktionierende OpenClaw-Installation,
  • einen laufenden Ollama-Dienst,
  • mindestens ein lokal gezogenes Ollama-Modell,
  • genug RAM beziehungsweise GPU-Speicher für das gewählte Modell.

Auf macOS bietet Ollama eine App als Download an. Laut Download-Seite setzt die macOS-App macOS 14 Sonoma oder neuer voraus. Unter Linux dokumentiert Ollama die Installation per Installationsskript. Für OpenClaw ist am Ende nicht die Installationsform entscheidend, sondern dass der Ollama-Host erreichbar ist und Modelle über die native API bereitstellt.

Direkter Einstieg über openclaw onboard

Die offizielle OpenClaw-Doku empfiehlt für den Einstieg zuerst:

openclaw onboard

Dort kannst du Ollama als Provider wählen und den Modus Local only auswählen. OpenClaw fragt nach der Ollama-Basis-URL, entdeckt verfügbare Modelle und kann den lokalen Modellbestand in die OpenClaw-Modellansicht übernehmen.

Das ist der beste Weg, wenn du OpenClaw neu einrichtest oder die Modellkonfiguration nicht von Hand anfassen willst.

Manueller Start mit Ollama und OpenClaw-CLI

Wenn du lieber explizit prüfst, was passiert, arbeite in kleinen Schritten.

Unter Linux kann die Ollama-Installation laut offizieller Download-Seite so aussehen:

curl -fsSL https://ollama.com/install.sh | sh

Danach muss der Ollama-Dienst laufen. Je nach Installation startet er automatisch. Wenn nicht, kannst du ihn manuell starten:

ollama serve

In einem zweiten Terminal ziehst du ein Modell:

ollama pull qwen2.5:7b

Prüfe zuerst Ollama selbst:

ollama list
curl -s http://127.0.0.1:11434/api/tags

Wenn diese Befehle kein Modell zeigen oder der HTTP-Aufruf fehlschlägt, ist noch nicht OpenClaw das Problem, sondern Ollama, der Dienst oder die URL.

Danach lässt du OpenClaw die Modelle aktualisieren und anzeigen:

openclaw models scan
openclaw models list

Wenn das Modell sichtbar ist, kannst du es als Standardmodell setzen:

openclaw models set ollama/qwen2.5:7b

Die OpenClaw-CLI-Doku nennt openclaw models scan, openclaw models list, openclaw models status und openclaw models set <model-or-alias> als zentrale Befehle für Modellerkennung und Default-Auswahl.

Minimale Konfiguration

Für lokale Setups brauchst du nicht zwingend einen ausführlichen Provider-Block. Die Dokumentation beschreibt einen einfachen Pfad über implizite Erkennung: Wenn ein lokaler Ollama-Host läuft und du models.providers.ollama nicht explizit definierst, kann OpenClaw standardmäßig das lokale Ollama unter http://127.0.0.1:11434 entdecken.

Dabei fragt OpenClaw Ollama über die native API ab, insbesondere über /api/tags. Zusätzlich kann OpenClaw über /api/show best effort Merkmale wie Kontextfenster oder Vision-Fähigkeiten erkennen.

Wenn du die Konfiguration lieber als JSON5 siehst, ist der Kern für das Standardmodell klein:

{
  agents: {
    defaults: {
      model: {
        primary: "ollama/qwen2.5:7b",
      },
    },
  },
}

Praktischer und weniger fehleranfällig ist für diesen konkreten Schritt aber meist:

openclaw models set ollama/qwen2.5:7b

Falls du in deiner bestehenden Konfiguration bereits eine explizite Modell-Allowlist unter agents.defaults.models pflegst, kann ein erkanntes Ollama-Modell trotzdem nicht in der Auswahl auftauchen. Dann musst du die Allowlist passend erweitern, zum Beispiel um einen konkreten Eintrag oder um ollama/*. Die OpenClaw-Doku beschreibt agents.defaults.models als Allowlist beziehungsweise Katalog der Modelle, die OpenClaw verwenden und in der Modellauswahl anzeigen darf.

Modellauswahl für lokale Setups

Ollamas Library enthält nicht nur klassische Textmodelle. Dort findest du auch Tool-Modelle, Vision-Modelle, Embedding-Modelle und Cloud-Varianten. Für OpenClaw ist das relevant, weil ein Agent nicht nur formulieren, sondern oft mit langem Kontext, Tool-Schemas und robustem Prompt-Verhalten klarkommen muss.

Die OpenClaw-Seite zu lokalen Modellen bremst hier bewusst den Optimismus. Lokaler Betrieb ist möglich, aber OpenClaw erwartet große Kontextfenster und eine belastbare Abwehr gegen Prompt Injection. Kleine oder stark quantisierte Mini-Modelle sind dafür schnell überfordert. Laut OpenClaw-Dokumentation warnt OpenClaw bei weniger als 32k Kontext und blockiert lokale Setups unter 16k Kontext.

Für den Testlauf heißt das nicht, dass du sofort einen teuren Workstation-Rechner brauchst. Es heißt aber: Nimm nicht automatisch das kleinste Modell, nur weil es auf deinem Laptop startet. Wenn du mit Ollama lokal experimentierst, sind größere und aktuell gepflegte Modelle der sicherere Pfad. In der Ollama-Library sind zum Beispiel gemma2, qwen2.5, llama3.1 und neuere Varianten als Kandidaten sichtbar. Welche davon auf deiner Hardware sinnvoll läuft, hängt stark von RAM, GPU, Quantisierung und gewünschter Latenz ab.

Bildverarbeitung und Spezialfälle

Die Ollama-Integration in OpenClaw kann mehr als nur Text. Die Provider-Dokumentation beschreibt, dass Vision-Modelle über Ollama auch für Bildverständnis genutzt werden können. Als Beispiel nennt die Doku qwen2.5vl:7b.

Wenn so ein Modell in Ollama verfügbar ist und OpenClaw es als bildfähig erkennt, kannst du es auch als imageModel für eingehende Medien setzen. Für den Einstieg in diese Tutorial-Serie ist das aber ein zweiter Schritt: Erst Text stabil bekommen, dann Vision ergänzen.

Grenzen lokaler Setups

Die häufigste Fehlerquelle bei Ollama-Setups ist nicht die Installation, sondern eine falsche Erwartung. Lokal ist gut für Datenschutz, Kostenkontrolle und schnelle Experimente. Lokal ist nicht automatisch die beste Wahl für jede produktive Agenten-Aufgabe.

Die OpenClaw-Dokumentation empfiehlt für hybride Setups ausdrücklich, gehostete Modelle als Fallbacks aktiv zu lassen und lokale Modelle mit Cloud-Modellen zusammenzuführen, statt dogmatisch alles lokal zu erzwingen. In der Doku wird dafür models.mode: "merge" genannt.

Das ergibt Sinn. Ein lokales Modell kann den Alltagsverkehr übernehmen, während ein gehostetes Modell einspringt, wenn der Kontext größer wird oder die Aufgabe heikler ist. Gerade bei langen Sessions, Tool-Aufrufen und komplexen Sicherheitsanforderungen ist diese Absicherung deutlich vernünftiger als ein starres „alles lokal oder gar nichts“.

Sicherheit: Ollama nicht ungeschützt ins Netz hängen

Ein lokaler Ollama-Dienst ist bequem, aber er ist kein Auth-Gateway. Für ein normales Einzelplatz-Setup sollte die Basis-URL auf 127.0.0.1 zeigen und nicht offen im LAN oder Internet erreichbar sein.

Wenn du Ollama absichtlich auf einem anderen Rechner betreibst, sichere den Zugriff separat ab: Firewall, VPN, SSH-Tunnel oder ein anderes kontrolliertes Netzwerk-Setup. Trage in OpenClaw trotzdem die native Ollama-Basis-URL ohne /v1 ein.

Typische Fehlerquellen

Drei Stolpersteine tauchen besonders oft auf.

Erstens: ein falscher Endpoint. Bei Ollama-Hosts gehört in OpenClaw die native Basis-URL hinein, nicht eine /v1-Route. Richtig ist zum Beispiel:

http://127.0.0.1:11434

Zweitens: Ollama läuft nicht oder OpenClaw hat den aktuellen Modellbestand noch nicht neu gescannt. Prüfe dann in dieser Reihenfolge:

ollama list
curl -s http://127.0.0.1:11434/api/tags
openclaw models scan
openclaw models list

Drittens: Das Modell ist schlicht zu klein für den realen Agenten-Prompt. Dann wirkt das Setup nicht nur etwas langsam, sondern qualitativ brüchig: vergessene Instruktionen, schlechte Tool-Nutzung, unsichere Antworten oder instabiles Verhalten bei längeren Sessions.

Wenn du nur einen funktionierenden Startpunkt willst, ist der empfohlene Weg deshalb langweilig, aber robust: Ollama installieren, ein ausreichend starkes Modell ziehen, den Ollama-Dienst prüfen, OpenClaw scannen lassen, Modell setzen und erst danach testen, wie weit deine Hardware wirklich trägt.

Weiterlesen

Zusammenfassung

Ollama ist für OpenClaw ein praktischer Weg in lokale Modelle, solange du die Grenzen ernst nimmst. Für ein Hobby-Setup ohne laufende API-Kosten ist das ein solider Einstieg. Die Minimal-Konfiguration ist klein, die Modellerkennung bequem und die Einrichtung deutlich angenehmer als bei vielen anderen lokalen Stacks.

Der entscheidende Punkt ist aber nicht, ob ein Modell lokal startet, sondern ob es für OpenClaw stabil genug läuft. Wenn du das nüchtern testest, den Ollama-Dienst nicht ungeschützt exponierst und nicht am falschen Ende sparst, bekommst du mit Ollama eine lokale OpenClaw-Installation, die sich sinnvoll nutzen lässt.

Transparenz

Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.