今のところの目標はこんなところだ。
- vscode + WSL2 + LM Studio + Continue
- Rust言語で書くときのサポートをしてほしい
- なるべく早く応答してくれるのが良いがお金はかけたくない
ローカルLLMで考えているが、ハードウェアを買い足さないと使い物にならないかもしれない。しかし高いお金出して買ってみたものの期待したスペックにならないという心配もある。それなら最初から有料プランを選択した方が賢いのかもしれない。
こちらはさっきClaudeから持ってきたAPIの費用だ。月額とかではなくてトークン単位での課金なのだな。それなら使わなければ課金されないので、どうしてもってときだけ使うというやり方もあるのだろう。月額じゃない分、忘れて使いすぎるという心配もあるが。。。
稼ぎが少ないので、無料で頑張ろう。
ContinueのMCP設定はconfig.yamlに書くことができる
お試し用にvscodeのプロジェクトを新しく作ったのだがMCPサーバの設定がなかった。前回追加したのはプロジェクトごとの設定なので .continue/mcpServers/*.yaml のような場所に置かれたのだが、全体設定の config.yaml に書いておけばグローバルで見えるようだった。
name: Local Config
version: 1.0.0
schema: v1
models:
- name: LM Studio
provider: lmstudio
model: AUTODETECT
apiBase: http://localhost:1234/v1/
mcpServers:
- name: Deep Wiki
type: streamable-http
url: https://mcp.deepwiki.com/mcp
Agentモード?
第1回にも書いたが、Continueのモードとして Agent を選択している。困ったことにというかなんというか、Agent の横に⚠マークが付いている。ちゃんとうごかないかもね、みたいなことが書いてあるので気になる。
LLMをいくつか試しているのだが、サイズが小さめなものしか選んでいないからかどれも警告が出る。Recommended Agent Models に推奨が書いてあるがどれもうちでは動かせなさそうだ。
今ひとつ期待した結果が出ないのはその影響なんだろうか。 src/main.rs で main() しかないソースファイルを「レビューしてください」と指示したら、延々となんかやり始めて fn main() などを取り除いたりして好き勝手やってる。そして最後はなぜか main.py というファイル名でなにか言ってくるのだよな。
大雑把な指示には向かないのか。
LLM選び?
期待したことをやってくれないのはLLMの選び方かもしれない。とはいえ、どれがよいのかよくわからない。
名前に "code" が付くのが良さそうな気がするが、まったく自信はない。
32B は大きすぎる。Qwen2.5 Coder 14B が 9GB、Codestral 22B が 13.5GB。サイズが大きいと結果が出るのも時間がかかるんだったと思う。
0 件のコメント:
コメントを投稿
コメントありがとうございます。
スパムかもしれない、と私が思ったら、
申し訳ないですが勝手に削除することもあります。
注: コメントを投稿できるのは、このブログのメンバーだけです。