[问与答] Lingma 插件有能力支持自定义模型服务商,却没有开放该怎么办

内置可选的服务商就是阿里百炼/GLM/MiniMax/Kimi 这几家 Coding Plan.

但阿里百炼的 Coding Plan 不仅没了丐版,200 元档也完全抢不到.

我想折反正普遍都是 Open AI 兼容接口, 为何不给放开自定义呢.

既然官方不动手我自己动手看看, 下载 Jetbrains Lingma 插件后,反编译,通过关键字搜索发现可用的服务商实际都是在线获取的.

完整的调用链:

模型服务商配置的获取流程:

ByokConfigService.fetchAndCacheByokConfig()
  ↓
LanguageWebSocketService.getByokConfig()
  ↓
LanguageServer.getByokConfig()
  ↓
JSON-RPC 请求: "model/getByokConfig"
  ↓
服务器返回 ByokConfigResult (包含 providers 列表)

模型列表的获取流程:

ModelService.fetchModel()
  ↓
LanguageWebSocketService.queryModels()
  ↓
LanguageServer.queryModels()
  ↓
JSON-RPC 请求: "config/queryModels"
  ↓
服务器返回 Map<String, List<ChatModelItem>>

接下来怎么优雅的把自己的模型服务商在插件中显示出来? 我想尽量避免对插件本身二开, 因为每次插件更新都得重新编译. 求指教