12 月 26 日消息,据腾讯科技报道,清华大学计算机系副教授刘知远及其团队的研究登上《自然 · 机器智能》封面,正式提出用于量化大模型「能力密度」的「密度法则」(Densing Law)。

基于对 51 个主流大模型的回测,该研究指出 2023 年至 2025 年间,大模型的智能密度以每 3.5 个月翻倍的速度加速演进,意味着每 100 天即可用一半参数量达到当前最优模型的相当性能,成本也随之减半。
刘知远直言,若一家模型公司发布新品后「3 至 6 个月无法收回成本」,商业模式将难以为继,因为后来者很快能以四分之一的资源实现同等能力。
「用AI制造 AI」被其视为 AI 时代生产力的标志与产业突围方向。
刘知远将「密度法则」与「规模法则」(Scaling Law)视为「硬币的两面」:
前者强调通过架构、数据治理与学习方法的持续创新,用更小的参数承载更强能力;
后者则刻画参数规模扩张带来的能力持续上升。
他指出,在 ChatGPT 引发全球投入后,密度翻倍周期由约 5 个月收缩至约 3.5 个月,速度远快于摩尔定律的 18 个月节奏。这一趋势使云端 API 服务竞争极度激烈,最终可能只剩拥有海量用户与强大技术迭代能力的头部厂商;
与此同时,约束条件清晰、对功耗与响应时延敏感的「端侧智能」将成为创业公司更具确定性的机会窗口。
关于多模态进展,刘知远将 Google 最新发布的 Gemini 3 视为里程碑:在图像生成中对文字的高一致性与可控性体现了模型对世界理解与生成过程的「逐层细化」。
他推测该能力不仅依赖 Diffusion,也很可能融入自回归思想,从而实现生成一致性的新范式;这也印证了密度法则的外延——只要某种智能能力可被实现,未来一定能在更小的终端上运行,如手机、PC 或车载芯片。
他对AI的长期影响持乐观态度,认为 2030—2035 年可实现全球普惠的 AGI,互联网的主体将不再只是人类,还会有数不尽的智能体;虽然训练厂商会收敛,但「AGI 发展还没收敛」,推理算力需求将爆炸式增长,人机协同将成为常态。