目 录CONTENT

文章目录

小龙虾更新2026.4.9后内置模型超时

过客
2026-04-12 / 0 评论 / 1 点赞 / 3 阅读 / 0 字

更新2026.4.9版本后,好像又报错了。

Something went wrong while processing your request. Please try again, or use /new to start a fresh session.

使用openclaw status未报任何错误,然后,看了New-API查看OpenClaw未调用模型API,回到上龙虾查询了一下模型情况openclaw models status --probe,结果发现有个莫名其妙的openai/codex-mini-latest报超时

问题分析

openai/codex-mini-latest模型是什么呢?

openai/codex-mini-latest 是 OpenAI 官方的一个模型别名(alias),它是基于 o4-mini(或类似基础模型)微调的 快速推理模型,专门优化用于 Codex CLI(OpenAI 的代码/代理相关工具链)。

为什么没有配置会出现在这里?

OpenClaw(尤其是 2026.4.9 这个新版本)在 models status --probe 时会自动扫描/探测​所有内置的常见模型​(包括 openai/ 前缀下的各种 gpt/codex 变体),不只是你自己在 models.json 或环境变量里显式配置过的。

  • 它把 openai/codex-mini-latest 当作一个“候选模型”加入了 Auth probes 列表。
  • 但你没有给它提供有效的 ​OpenAI API key​(或对应的 openai-codex OAuth),所以 probe 请求直接超时(timeout · 27.1s)。
  • 旁边那个 tavily/- 的 “no_model” 是正常的(Tavily 是搜索工具 provider,没模型可探)。

更新到 2026.4.9 后,这个内置模型列表可能被扩展或 probe 逻辑更激进,导致以前没问题的环境突然多出一个超时项,进而触发全局的 “Something went wrong while processing your request” 错误,导致发消息给小龙虾报错。

怎么解决呢?

看描述,openai/codex-mini-latest使用了env的api_key,查看配置的.env文件,发现配置的模型Key使用了环境变量OPENAI_API_KEY,结果OpenClaw内部可能就用了这个变量,发现我配置了这个Key,就调用了openai/codex-mini-latest,然后发现访问不了openai的地址,就报超时,触发了全局错误。

解决办法就是,换一个变量名,自己用的模型Key把遍历名改一下,如:环境变量配置 MODELS_API_KEYopenclaw.json中配置:

"models": {
    "mode": "merge",
    "providers": {
      "zngw": {
        "baseUrl": "https://New-API域名/v1",
        "apiKey": "$MODELS_API_KEY",
        "api": "openai-completions",
        "models": [
            // 模型名配置
		]
	  }
	}
    // 其他配置
}

测试

重启,再次使用openclaw models status --probe测试就没有这个内置模型报错了

再回到小龙虾里测试

1
  1. 支付宝打赏

    qrcode alipay
  2. 微信打赏

    qrcode weixin

评论区