部署完怎么样控制局域网电脑或者其他设备,本地怎么样接入聊天软件
qwen模型怎么配啊qwen-portal/coder-model ?没有apikey啊是authorize认证
我说实话啊,这个东西估计你们自己内部连测试都没测试就着急忙慌的弄出来了。
首先第一:你们默认的AI URL就是错的,我拿Kimi来举例子:正常官方安装的时候,这里会有选择:你是用Moonshot AI API Key 还是 Kimi Code API key。
这两个API的路径都不一样,我盲猜你们根本就没测试,直接就用常规的API Url了,这就导致按照你们应用商店的配置,Kimi永远也接不通。
第二:你们给的参考模型的名称就有问题,比如Kimi的话Code这里是kimi-code/kimi-for-coding,你们这里直接就是moonshot/kimi-k2.5,也没有其他提示,能好用就怪了。
同理,其他国内的大模型估计或多或少也有这个问题,所以才会出现:要么对话是空白的、要么根本就连不上去。
讲真用你这个还不如直接命令行安装原版的算了,好歹挨个试试再推到商店好吧。
确实非常仓促,各种调试不对
我也一样,希望解决了回复下,感谢
+1,遇到了一样的问题
同问题,我根据官方的指引使用本地安装的ollama模型接入。回答总是空
openclaw 默认的 qwen 认证方式不是 apikey, 所以直接是不行的。需要改 config,或者说是增加 自定义的模型
“models”: {
“mode”: “merge”,
“providers”: {
“qwen”: {
“baseUrl”: “https://dashscope.aliyuncs.com/compatible-mode/v1”,
“apiKey”: “sk-99999999999999999999999”,
“api”: “openai-completions”,
“models”: [
{
“id”: “qwen-max”,
“name”: “Qwen Max”,
“reasoning”: false,
“input”: [
“text”
],
“cost”: {
“input”: 0,
“output”: 0,
“cacheRead”: 0,
“cacheWrite”: 0
},
“contextWindow”: 200000,
“maxTokens”: 8192
}
]
}
}
},
折腾了2天,还是不好用。最后按照这个提示【 如果你希望通过 Telegram、WhatsApp、Discord、iMessage 等聊天工具与机器人进行对话,可以在 已安装应用页面 找到 OpenClaw 应用,点击顶部的 进入安装目录 按钮。点击文件列表顶部的 终端 按钮,在终端中执行以下命令配置对应的聊天工具对接。
docker compose -f docker-compose-cli.yml run --rm openclaw-cli channels add】
变换了命令:docker compose -f docker-compose-cli.yml run --rm openclaw-cli -h
重新配置大模型,也是无法使用,返回的都是空消息。
这真是纯纯浪费时间。
一坨屎,minimax不可以
应用商城中ai项里强烈推荐增加 bisheng毕昇项目
stderr: openclaw Pulling openclaw Error Error response from daemon: Get “https://registry-1.docker.io/v2/”: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers) , err: exit status 18
这个问题怎么解决,不知道要换哪个源
解决了吗
解决了吗 这样的日志是怎么配出来的呀
提个建议:openclaw 容器镜像能不能把 homebrew 集成进去,有些插件安装依赖它。另外,容器中默认 node 用户无法 npm -g 安装全局工具,自己尝试改到用户目录下了。最后,能不能加个可以选择 homebrew / npm 国内加速源配置的方式
怎么才能连接智谱呢?
