而这群人聊的,不是多模态、具身智能或AGI这些热门方向,而是一个更底层的硬核问题:
更关键的是,这还是ICLR历史上首个聚焦该方向的Workshop。除了阿里妈妈这个牵头发起者,还集结了北京大学、MIT等一众顶尖高校。
这就很值得玩味了,一个能在顶会“开专场”、还把产业界和学术界的人全拽到一个房间里讨论到“上头”的方向,背后显然不简单。
Workshop可以简单理解成专题讨论会,通常不会是最挤的地方。但这次显然是个例外。
机制设计和决策智能,这俩词,老实说第一次听基本都一脸问号,但它其实一点都不“小众”。
考古了一下,这是一个多次斩获诺贝尔经济学奖的领域——从1996年的维克瑞(William Vickrey),凭借在拍卖理论和机制设计领域的奠基性贡献,拿下诺贝尔经济学奖,再到2007年、2020年的得主,都在解决现实世界最核心的决策问题。
你刷到的广告为什么是这条而不是那条?短视频平台凭什么决定把10万的现金奖励发给哪个创作者?
而这次Workshop所做的,就是把全世界正在重写这套游戏规则的人,凑到一个房间里。
首先登场的CMU教授Tuomas Sandholm,机制设计与博弈论领域无可争议的权威。
早年他带队打造的Libratus系统曾在德扑中击败顶尖职业玩家,而这次他又带着新系统Obscuro挑战比德扑更复杂的“Fog of War Chess”棋类游戏。
此游戏状态空间高达1018,但Obscuro不依赖离线训练,纯靠实时搜索,并刻意模仿人类“有限推理”(只保留8层认知深度),最终却以16:4战胜世界冠军,成为该领域首个超越人类的AI。
另一位是来自加州大学尔湾分校的Vijay V. Vazirani,做理论计算机的人绕不开的名字。CS博士大概率都翻过他那本《近似算法》。
他这次讲的是“基数效用匹配市场”,说白了就是一群人和一堆资源要互相分配(比如学生选宿舍、用户匹配商品),到底该用什么规则,才能既公平又有效率,还能真正跑得起来。
过去经济学家给出过一套很漂亮的方法(Hylland-Zeckhauser机制),理论上各种性质都说得通,但规模一大就开始“算不动”。
所以Vijay这次带来了一种基于纳什谈判(Nash bargaining)的新思路,既保留原本“好看”的理论性质,也保证在实际计算里能跑得动。
把这两位巨佬放在一起,能看出一个明显的趋势:理论这边,越来越关注“怎么在现实里跑得起来”。
为了迎合平台规则,创作者往往会追热点、蹭标签、卡发布时间、复刻爆款。平台原本试图优化内容质量,结果却在不经意间,把问题变成了“创作者如何迎合规则”。
平台是在和人打交道,还是在和一群AI打交道?原来那套算法逻辑是不是从根上就需要重写?
如果说郑臻哲抛出的是AI时代的“新问题”,那谷歌研究院的Song Zuo则给出了一个具体的“新解法”。
和传统广告拍卖不同,AI生成的内容是现产的,每次还不一样——东西都没出来,怎么拍卖?
每个广告主只需要给出一个数字代表自己愿意出多少,模型在每个token往外吐的时候,根据所有出价综合考虑,决定下一个token怎么写、整篇创意往哪个方向走。
最后再用“维克里拍卖”这种博弈论中的经典防作弊机制来收钱——谁出价最高谁赢,但只需按第二高的价格付款,因此对广告主来说最划算的就是报真实心理价。
而更聚焦在产业侧的亚马逊广告高级首席研究科学家Niklas Karlsson,则是把业界真实痛点摆了出来:
亚马逊每秒要做几百万次广告竞价决策,每个广告主又有自己的预算红线。怎么让AI在这个前提下既抢得到流量、又不花超预算、还能稳住模型——听起来像是不可能三角。
而同样参与现场热烈讨论的,还有本次Oral Talk的5个论文团队(其实一共6个被评选为Oral论文,但来了5个)。
总共收到118篇,在顶会Workshop里算高产了,并且邀请了127位专家学者参与审稿。
别的不说,咱先看下Long Papers和Short Papers两个赛道各自诞生的最佳论文。
研究的是:当多家AI厂商同时争用户、用户偏好又五花八门时,怎么让模型真正对齐到每个人的真实利益?
结论很反直觉:不用靠强行监管或统一标准,市场竞争本身就会逼着AI越做越贴合每个用户——个性化本身就是一种对齐机制。
研究的是:让多个大模型一起参与“竞争”(比如定价、出价),它们真的会老老实实各玩各的吗?
结论也挺让人后背发凉:仅靠优化提示词,LLM智能体就会自发“达成默契”,在不显式通信的情况下默契抬高价格、不打价格战——AI市场的“算法合谋”风险,第一次被实打实地证实了。
而除了拿下Long Papers最佳论文的那篇,其余5篇Oral论文也都各有亮点。
第一篇:《Prices, Bids, Values: One ML-Powered Combinatorial Auction to Rule Them All》
一句话总结:通过提出机器学习混合组合拍卖机制MLHCA,让组合拍卖效率损失最多降到1/10,查询次数最多减少58%。
第二篇:《Decision Making under Imperfect Recall: Algorithms and Benchmarks》
第三篇:《AI Realtor: Towards Grounded Persuasive Language Generation for Automated Copywriting》
一句话总结:通过设计一套三模块系统(先挖卖点,再对齐买家偏好,最后做事实核查),成功让大模型给房子写销售文案既能吸引人,又不乱编。
第四篇:《On the Edge of Core (Non-)Emptiness: An Automated Reasoning Approach to Approval-Based Multi-Winner Voting》
第五篇:《Post-Training LLMs as Better Decision-Making Agents:A Regret-Minimization Approach》
一句话总结:通过提出用“后悔最小化”做后训练,补齐了大模型在需要反复决策的场景中容易短视的短板。
只需翻一遍它在机制设计、出价决策智能等方向的“奋斗史”,你就知道,这背后离不开它多年的技术深耕。
但“排序”在数学上不可微(1就是1、2就是2,没有1.1这种中间态),所以AI无法通过梯度学习直接优化它。
因此很长一段时间里,这块主要靠经验规则撑着,学术界走得谨慎,工业界更是不敢让模型端到端地去学。
通过提出Neural Auction,阿里妈妈率先给出了“可微的排序计算形式”,这项被学界评为“开创性尝试”的工作,正式打开了端到端学习拍卖机制的大门。
不再一条一条地排广告,而是让模型一次性生成整一页广告的最优排布方案,把“怎么排+怎么定价”一起学掉,用一个生成模型去直接拟合整个页面的最优解。
过去十年,这件事大致走了三步:从简单规则控制(PID),到用强化学习试着自动调,再到引入更复杂的模型,但结果始终不理想。
广告投放不是下棋,走一步马上知道输赢。广告主投一笔钱,要等几个小时甚至几天才知道ROI是多少。标准RL在这种环境下,学得慢、波动大,所以上线就翻车成了常态。
通过提出AIGB(AI-Generated Bidding),把“出价”这件事,重新理解成“生成最优策略”。
以前模型靠反复试,而AIGB是根据广告主的预算和ROI目标,一步一步“生成”一整条出价曲线。
后来在AIGB的框架下,阿里妈妈研发了基于扩散模型的DiffBid,让出价过程变得更平滑稳定。
在自家广告平台实测中,DiffBid能把GMV提升3.6%–5.0%,而且出价曲线更平滑,不会出现“上半场把钱花光、下半场干瞪眼”的情况。
而沿着AIGB这条线,阿里最新的工作AIGB-Pearl,又在“生成”之外加了一只眼睛:
技术之外,阿里妈妈这两年在做一件更费劲但更关键的事:把自己做出来的东西逐步开放出去。
我们目前看到的,阿里妈妈举办的各种比赛以及开源,本质上都是它为了开放而做出的努力。
比如在2024年,他们成了唯一一个拥有NeurIPS比赛主办权的国内工业团队,还专门设了AIGB相关赛道,让全球研究者在同一个问题上做对比和竞争。
同时也开源了AuctionNet这类大规模模拟竞价数据和系统,解决了一个长期问题:以前做拍卖机制研究,大家手里基本没有真实工业数据,只能靠模拟和假设。现在至少有了一套相对标准的“练习场”。
到这里,阿里妈妈的角色,已经从“闷声做技术”的应用方,变成了这个领域的基础设施提供者。
学术圈拿到的是数据集、比赛、Workshop;工业界拿到的是真实的业务收益、可复用的范式、能上线的方案。
量子位 QbitAI 版权所有©北京极客伙伴科技有限公司 京ICP备17005886号-1