2026-04-14
我用win11 的 picoclaw 安裝過程紀錄一下
picoclaw 很用 ollama 很容易 timeout … 這個搞了三天 … 暈
最後用 ollama 的 kimi-k2.5:cloud
然後圖片用 ollama 的 gemma3:4b (用 gemma4:e2b 會timeout)
語音轉換用 GROQ 的 whisper-large-v3-turbo 轉文字
以下是設定 控制台在 http://localhost:18800/
<service>
<id>picoclaw</id>
<name>Picoclaw Service</name>
<description>Picoclaw Launcher Service</description>
<executable>C:\picoclaw\picoclaw-launcher.exe</executable>
<workingdirectory>C:\picoclaw</workingdirectory>
<env name="HOME" value="C:\picoclaw"/>
<!-- timeout -->
<env name="PICOC_MODEL_TIMEOUT" value="60000"/>
<env name="PICOC_AGENT_TIMEOUT" value="120000"/>
<env name="PICOC_OLLAMA_TIMEOUT" value="900000"/>
<!-- retry -->
<env name="PICOC_MODEL_RETRIES" value="5"/>
<env name="PICOC_MODEL_BACKOFF" value="15s"/>
<!-- CPU 限制 (vision model 用) -->
<env name="OLLAMA_NUM_PARALLEL" value="1"/>
<env name="OLLAMA_MAX_LOADED_MODELS" value="1"/>
<env name="OLLAMA_KEEP_ALIVE" value="30m"/>
<env name="OLLAMA_REQUEST_TIMEOUT" value="30m"/>
<!-- Telegram -->
<env name="PICOC_TELEGRAM_SPLIT_MESSAGE" value="true"/>
<env name="PICOC_TELEGRAM_MAX_LENGTH" value="3500"/>
<env name="PICOC_TELEGRAM_PARSE_MODE" value=""/>
<!-- token -->
<env name="PICOCLAW_LAUNCHER_TOKEN" value="chio"/>
<env name="PICOC_FAST_MODEL" value="ollama/kimi-k2.5:cloud"/>
<env name="PICOC_FALLBACK_MODEL" value="ollama/kimi-k2.5:cloud"/>
<env name="PICOC_SMART_MODEL" value="ollama/kimi-k2.5:cloud"/>
<env name="PICOC_MODEL" value="ollama/kimi-k2.5:cloud"/>
<env name="PICOC_VISION_MODEL" value="ollama/gemma3:4b"/>
<!-- Groq API Key -->
<env name="PICOCLAW_PROVIDERS_GROQ_API_KEY" value="gsk_5JZDaSXQup7wDBuobIw5WGdyb3FYowNNwprJqqIKMThqUgxxxxxx"/>
<env name="GROQ_API_KEY" value="gsk_5JZDaSXQup7wDBuobIw5WGdyb3FYowNNwprJqqIKMThqUgxxxxxx"/>
<!-- 啟用工具 -->
<env name="PICOC_TOOLS_ENABLE" value="web"/>
<!-- Router 規則 -->
<env name="PICOC_ROUTER_PROMPT" value="
If image present use vision model.
If message needs latest info use smart model.
If message contains 今天 or today or now use smart model.
If message contains 新聞 use smart model.
If private chat use smart model.
If group chat use fast model.
default use fast model.
"/>
<!-- tokens 上限調小 -->
<env name="PICOC_MODEL_MAX_TOKENS" value="512"/>
<!-- 限制對話歷史 -->
<env name="PICOC_AGENT_MAX_HISTORY" value="10"/>
<log mode="roll">
<logpath>C:\picoclaw\logs</logpath>
</log>
<onfailure action="restart" delay="15 sec"/>
<startmode>Automatic</startmode>
</service>
當然UI 也要設定 不然 ollama 不知道在 http://127.0.0.1:11434/v1
語音語也要設設定 不然 不知道在 https://api.groq.com/openai/v1
我是用 groq/whisper-large-v3-turbo
要去網頁 開啟許可用才行