Claude Code

关注公众号 jb51net

关闭
AI > Claude Code >

详解Claude Code 接入本地大模型Qwen3.6 进行代码开发(vLLM 部署 + 环境配置)

冯朝臣

背景

Claude Code 是 Anthropic 推出的智能编码命令行工具,默认使用 Claude 系列模型。但我们可以通过指定自定义 API 端点,将其连接到本地部署的 Qwen3.6 模型,实现“本地模型 + 强大编码助手”的组合。

本文将带你完成:

一、环境准备与模型部署

1.1 安装 Docker

请确保你的系统已安装 Docker 并支持 GPU(NVIDIA Container Toolkit)。

1.2 创建 docker-compose.yml

在合适的位置创建项目目录,例如 ~/vllm-qwen,并在其中新建 docker-compose.yml 文件,内容如下:

version: '3.8'
services:
  vllm-qwen:
    image: vllm/vllm-openai:cu130-nightly
    container_name: vllm-qwen36-35B-A3B-FP8
    restart: unless-stopped
    ipc: host
    ports:
      - "8000:8000"
    volumes:
      - /app/vllm/data/models:/root/.cache/modelscope   # 模型缓存目录,可按需修改
    environment:
      - VLLM_USE_MODELSCOPE=true
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
    command:
      - --model
      - "Qwen/Qwen3.6-35B-A3B-FP8"
      - --tensor-parallel-size
      - "1"
      - --gpu-memory-utilization
      - "0.8"
      - --served-model-name
      - "Qwen3.6-35B-A3B-FP8"
      - --enable-prefix-caching
      - --enable-auto-tool-choice
      - --default-chat-template-kwargs
      - '{"enable_thinking": false}'
      - --tool-call-parser
      - "qwen3_coder"
      - --max-model-len
      - "196608"
      - --max-num-batched-tokens
      - "8192"
      - --enable-chunked-prefill
      - --max-num-seqs
      - "32"
      - --kv-cache-dtype
      - "fp8"

1.3 启动模型服务

在 docker-compose.yml 所在目录执行:

docker compose up -d

服务启动后会监听本机 8000 端口。

1.4 验证部署

使用 curl 检查模型列表:

curl http://127.0.0.1:8000/v1/models

正常返回应包含 Qwen3.6-35B-A3B-FP8

二、安装 Claude Code

Claude Code 支持多种安装方式,可根据你的系统选择。

2.1 通过官方脚本安装(推荐)

macOS / Linux / WSL(Linux 子系统)
打开终端,执行:

curl -fsSL https://claude.ai/install.sh | bash

安装完成后重启终端或执行 source ~/.bashrc(或 ~/.zshrc)。

Windows PowerShell(管理员模式运行)

irm https://claude.ai/install.ps1 | iex

Windows CMD(命令提示符)

curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

2.2 通过 npm 安装(适用于已安装 Node.js 的用户)

npm install -g @anthropic-ai/claude-code

安装后,执行一次初始化(非必须,但建议):

claude install

三、配置 Claude Code 使用本地 Qwen3.6

3.1 设置环境变量

将 Claude Code 指向本地 vLLM 服务。当前服务运行在 127.0.0.1:8000,如果其他机器使用可以ifconfig查看服务器的ip地址,认证 Token 可随意设置(vLLM 默认不校验,但需要占位符)。

Linux / macOS / WSL (bash/zsh)

export ANTHROPIC_BASE_URL="http://127.0.0.1:8000"
export ANTHROPIC_AUTH_TOKEN="your_key"

若想永久生效,可将这两行追加到 ~/.bashrc 或 ~/.zshrc

Windows PowerShell

$env:ANTHROPIC_BASE_URL="http://127.0.0.1:8000"
$env:ANTHROPIC_AUTH_TOKEN="your_key"

Windows CMD

set ANTHROPIC_BASE_URL=http://127.0.0.1:8000
set ANTHROPIC_AUTH_TOKEN=your_key

3.2 指定模型启动 Claude Code

环境变量设置完毕后,使用 --model 参数指定模型名称(必须与 vLLM 启动参数 --served-model-name 一致):

claude --model Qwen3.6-35B-A3B-FP8

首次运行会提示登录,由于我们使用的是自定义端点,可以随意输入邮箱或直接回车跳过。

启动成功后,你将看到类似如下的交互界面:

Claude Code v2.x.x
Type /help for commands, /exit to quit.
> 你好,请帮我写一个 Python 冒泡排序

到此这篇关于Claude Code 接入本地大模型Qwen3.6 进行代码开发(vLLM 部署 + 环境配置)的文章就介绍到这了,更多相关Claude Code 接入大模型Qwen内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!