人手一个数据库,Kimi背后这套AI基建到底有多能扛?

如果你最近在Kimi K2.6的Agent模式里敲下这句话,5分钟后,你拿到的不再是一堆需要自己调试的Python代码,也不是一个只能看的静态Demo。

前端、后端、独立数据库、用户账号体系……全套齐备。你可以直接把链接甩给朋友,他注册后存入的数据,会稳稳地停留在你这套系统的独立数据库里。

比起v0或Lovable这些AI建站工具,Kimi实际上接管了用户从开发到托管、再到数据库运维的全生命周期。

如果有100万个用户随口说了这句话,就意味着后台要瞬间承载100万个独立的生产级数据库——被真实用户长期读写。

那么Kimi究竟是如何在成本、规模与性能的“不可能三角”中,实现这种“人手一个数据库”的奢侈配置?

一旦运行起来,托管的基础设施成本(web服务器、带宽、数据库)相对算力成本要低得多,厂商的利润空间主要靠这一部分。

按传统云数据库的定价模型,一个最小实例大约每月十几到二十美元。乘以百万,账单天文数字。问题不是数据库贵,是商业模型无法规模化

过去二十年,schema设计是一个需要DBA(数据库管理员)、需要review、需要版本管理的慢决策流程。

在Kimi K2.6这里,schema是LLM对用户一句自然语言的翻译,例如“读书笔记需要什么字段?”“评分存整数还是文本?”,瞬间就能决定。

这时候数据库里已经有了真实用户数据。Schema一旦改错,轻则查询失败、用户报错,重则写入紊乱、数据不可恢复。

大多数站建完就闲置。但只要有一个站被小红书推荐、被X平台热转,瞬间并发可以跳到百倍以上。

所以,数据库必须同时扛住“绝大多数近乎零、少数瞬间爆量”的极端曲线,而且要做到爆量租户不能拖垮其他所有租户

决策一:极致低成本——用Serverless Cluster的多租户能力,承接“每个用户一个独立数据库”

既然问题出在“每用户一个真实实例”,TiDB Cloud在这层走了另一条路:引入一层“虚拟数据库界面”

长尾的、绝大多数时间没请求的租户,平台并不真实分配数据库实例;只在Agent/终端用户实际发起请求的瞬间,由一个常驻的DB Session Gateway维持数据库连接,其他资源全部走弹性供给。

落到Kimi K2.6的场景里,这意味着“百万用户的建站后端”在单位经济上跑得通

为了更直观地呈现这种技术代差,我们将这一架构与以Supabase为代表的典型Serverless数据库,进行了对比:

决策二:统一技术栈——vector+SQL+JSON把Agent的“写代码”难度压下来

Kimi K2.6建站Agent里,LLM写出来的典型查询经常在一条SQL里同时做多件事——按用户过滤、按标签筛选(JSON字段)、按向量相似度排序、按时间倒序。

在分离的栈里,同样的需求要LLM协调三个client、自己做事务、自己做结果合并……这在LLM写代码的场景下,错误率会指数级叠加。

决策三:最小化摩擦——Warm Pool+scale-to-zero让Agent在1秒内拿到完全准备好的数据库实例

Agent生成应用时,数据库的创建不能是一个需要等待几分钟的provisioning流程。

TiDB Cloud通过Warm Pool预先维护一批已经完成底层准备的Starter实例。

Kimi需要新实例时,不再走完整创建链路,而是直接从预热池中分配;再叠加Starter scale-to-zero的能力,闲置实例的计算成本可以压到很低。

Agent可以在1秒内拿到fully prepared instance,继续生成schema、写入数据、启动应用,而不需要把等待、轮询、失败重试写进自己的代码。

一个平台侧的数据可以先交代:今天在TiDB Cloud上新建的集群里,超过90%是由AI Agent直接创建的,而不是由人类工程师创建的。这个比例一年前还远没有这么高。

数字背后是一批AI Agent团队在各自做完基建选型后,不约而同地走向了同一类架构。几个关键数据点值得放在一起看:

去年,某全球知名AI Agent平台的AI Agent选择TiDB作为其核心数据层,并在其技术博客和开发者社区公开了架构细节。

更早,Dify这家做LLMOps的低代码平台公司,过去为每个开发者租户分配独立数据库容器,规模做到一定程度后扛不住运维,最终把所有租户合并到一套TiDB Cloud上:基础设施成本降80%、运维负担降90%。

今年,Kimi K2.6把TiDB用到了更复杂的场景——Agent直接向终端用户交付数据库驱动的完整应用。

Agent时代是Agent自己,每个真实用户身边可能有10个、100个独立运行的Agent实例,每个都要有自己的状态、记忆、数据。

Agent在跑起来时需要的不仅仅是数据库,还需要一个独立的sandbox来执行代码、一份独立的storage来存它的工作产物。

One agent, one sandbox; one storage, one database,这套“每个Agent一份独立运行环境”的架构,正在成为Agent原生应用唯一可行的假设。

Kimi、Dify、Plaud以及全球各地不断涌现的Agent团队,都不约而同地做出了相同的判断。

新的默认标准正在形成。过去一年,TiDB的产品演进,正是在将这些共识逐一落实到具体产品中。

Agent作为新一代应用的核心计算单位,它需要的不只是一个数据库,还需要持久化工作产物的storage、维持跨session上下文的memory层,未来还会有更多组件。

后续还会有更多组件落地。Agent-native应用的标准运行时,正在一块一块成型。

当Agent进入“为终端用户交付应用”的阶段,模型能力本身已经不是决定胜负的唯一变量。

能不能选对一套数据底座,让交付出去的东西在真实用户面前稳定跑起来,正在变成模型厂商的核心运营能力。

量子位 QbitAI