Tag: Anthropic-Api

1 Beitrag

Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM

Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM

April 29, 2026 · 14 min read · guides
Claude Code auf lokalem LLM via ANTHROPIC_BASE_URL. Native Anthropic-Endpoints für Ollama, LM Studio, llama.cpp, vLLM. 32K-Kontext-Untergrenze.