OpenClawの利用モデルをEVO-X2のqwen3.5-35b-a3bにしてみている
ChatGPT PlusサブスクリプションのCodexのセッションで使ったり、Google AI Proでクレジットついてくるしそれでやろうかとか思っていたのだけれど、Codexはコーディングに使いたいという気持ちや、EVO-X2を普通にデスクトップとして使っててももったいないという気持ちとOpenClaw特にクリティカルなタスクも複雑なタスクもさせてないという現状を鑑みつつ、qwen3.5の評判まあまあ良さそうだったので、WindowsデスクトップのままLM Studioを常時動かしつつ、そのLM Studioでロードしたqwen3.5-35b-a3bをOpenClawから使わせるということにした。
てこずったのはOpenClawの設定のJSONをいじるところで、オンボーディングでLM Studio選べないし手探り気味だった。あとLM Studioもそんな使ってないのでモデルのトークン数制限を最大にするところとか。
追加したモデルの設定はこんな感じ
"models": {
"providers": {
"lmstudio": {
"baseUrl": "http://evo-x2.local:1234/v1",
"apiKey": "lmstudio-local",
"api": "openai-completions",
"models": [
{
"id": "qwen/qwen3.5-35b-a3b",
"name": "qwen/qwen3.5-35b-a3b",
"api": "openai-completions",
"reasoning": true,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 262144,
"maxTokens": 8192,
"compat": {
"supportsDeveloperRole": true,
"supportsReasoningEffort": false,
"maxTokensField": "max_tokens"
}
}
]
},
とりあえず使えるかなという感じ。