ollamaはローカルのLLMを使えるツールなのだが、cloudのLLMも用意されている。
これの何がうれしいかというか、高機能なLLMはローカルで動かすのは一般人には(マシンスペック的に)ほぼ不可能であり、その肩代わりをollama serverがやってくれているイメージだ。
glm-5:cloud
かなりいい。
launch claudeと組み合わせて使ったが、実用性あり。
ただ、Free planだと速攻で制限が来る。まぁお試しだね。
kimi-k2.6:cloud
planモードから使っても実用性はある。
ただし、AskUserQuestionに失敗する。
そのほかにもClaude Codeとの界面がちょいちょいおかしい。
途中経過が心配になるが、最終的には一応期待レベルに近いものは出してくれる。
逆に言うと一発で通すコードを作ることはほぼできないので、自走に適切なツールがある状態じゃないと使い物にならないと思われる。
まぁまぁ遅い。
deepseek-v4-flash:cloud
だいぶ賢い。
sonnet 4.6を超えている可能性がある。
planモードの制限も自分で解決できる地力がある。(8個の選択肢がある場合、タブで4,4に分ける等)
課金について
正直、しないと真価がわからん気がする。
ClaudeやCodexに太刀打ちできるレベルのLLMは課金しないと使えないので。