问题1:models.yaml文件在哪里配置,是在 config/models.yaml下吗?
问题2:我想连接本地自己布署在ollama的模型,如下,可以吗?
default_provider: "ollama" # 默认使用 Ollama 模型
providers:
# ... 保留其他模型配置 ...
ollama:
model: "deepseek-r1:8b" # 你的 Ollama 模型名
api_key: "any_string" # 任意字符串(Ollama 不验证)
base_url: "http://localhost:11434/v1" # 指向 Ollama 原生接口
ollama_qwen:
model: "qwen3:8b" # 第二个 Ollama 模型
api_key: "any_string"
base_url: "http://localhost:11434/v1"
fallback_order: ["ollama", "ollama_qwen"] # 可选:故障转移顺序
问题3:我注意到autoagent已经安装了litellm 1.55版本,它允许我调用本地模型吗?
erro-image
问题1:models.yaml文件在哪里配置,是在 config/models.yaml下吗?
问题2:我想连接本地自己布署在ollama的模型,如下,可以吗?
问题3:我注意到autoagent已经安装了litellm 1.55版本,它允许我调用本地模型吗?
erro-image