2025-07-12 02:19:32 风站乐 4
最近的贾扬AI社区,关于模型规模的清吐钱讨论有些活跃。
一方面,为快此前在大模型开发奉为“圣经”的想赚型Scaling Law,似乎正在褪去光环。底该大该去年大家还在猜测GPT-5的贾扬规模“可能会大到想不到”,现在这种讨论几乎绝迹。清吐钱大神Andrej Karpathy,为快则是想赚型在感慨大模型规模正在“倒退”。
另一方面,底该大该近期市场上性能优秀的贾扬小型模型层出不穷,参数规模、清吐钱任务处理、为快反应速度、想赚型保障性能,底该大该各公司在不同方面卷了又卷。
究竟是往大做探索极限,还是往小做迎合市场?
这最终汇总成一个问题:在这样模型快速更迭的市场中,要怎么才能把LLM模型的商业价值最大化?
最近发起讨论的是X.ai创始成员之一的Toby Pohlen。他认为如果模型以指数级速度改进,那么训练模型的价值也会以指数级速度折旧。这也导致人们需要赶在模型更迭前就迅速采取行动获取商业价值,一旦模型产生更新,上一代模型就基本一文不值了。
Toby的这番言论深得老板Elon Musk之心,大笔一挥打了一个“100分”。
贾扬清也参与到了这场讨论中来,他用感恩节火鸡做了一个有趣的比喻。他提出,售卖模型就像是感恩节火鸡促销,必须在感恩节前夕抓紧时间售卖,避免在感恩节到来后的贬值。新模型的工艺更新就是一个又一个感恩节,只有销售得更快才能赚到更多的利润。
(emmm...如果对火鸡不好了解,换成中秋节前抢月饼的故事大家或许应该容易理解一些?)
评论区也有不少人表达了对此观点的赞同。
有人说只要不断地开发新产物和迭代新模型,就能从中持续获得商业价值。
还有人说,模型改进的频率将直接决定模型本身的商业价值。
但是,模型的商业价值由什么决定,又该如何实现?
模型增长在走CNN老路吗?
模型必须做小,用起来才顺手。
比起大型模型,小型模型成本低应用便利,更能收获商业市场的青睐。贾扬清就发现,行业趋势在于研发和使用尺寸更小性能强大的模型,人们也更愿意把规模参数在7B-70B之间的中小型模型作为商业使用的选择。
作为前大模型时代的亲历者,贾扬清在当下LLM模型市场上嗅到了熟悉的味道,先变大再变小变高效,这和CNN时期的模型增长简直一模一样。
贾扬清还对CNN的增长历程做了一个简单的介绍。
首先是2012年,AlexNet开启了模型大小增长的序幕。2014年的VGGNet就是一个规模较大的高性能模型。
到了2015年,模型尺寸开始缩小。GoogleNet 将模型大小从GB降至MB,缩小了100倍,还同时保持了良好的性能。同年面世的SqueezeNet也遵循了追求更小尺寸的趋势。
在此之后,模型增长的重点转移到了维持平衡。比如如 ResNet(2015)、ResNeXT(2016)等模型都保持了一个适中的规模,注重计算效率。
贾扬清还介绍了CNN的一个有趣的应用,Google的MobileNet(2017),占用空间小性能优越,还具有出色的特征嵌入泛化。
最后,贾扬清引用了Ghimire 等人在《高效卷积神经网络和硬件加速调查》里的一张图:
他还进一步发问,LLM模型未来会遵循和CNN一样的增长趋势吗?
不过贾扬清也补充道,虽然行业趋势是模型小型化,但并不意味着号召大家放弃尺寸更大的模型。
但这随之而来的是另一个问题:大型模型的成本会更高。
此前也有人提出质疑,对大型模型支持商的运营成本和营运收益做了简单的计算,每天8张H100显卡运营节点的成本约为1000美元,每天可以提供2600万token的支持,但按Llama 405B每一百万token 3美元的价格,怎么算都是亏本的,无法盈利的大型模型不会被市场抛弃吗?
贾扬清表示,哎你说这个我就不困了,我熟我来说:)
贾扬清认为,虽然每个请求大约每秒输出30个token,但通过批量处理(同时处理多个请求)可以显著提高总吞吐量,可以达到比单个请求高出10倍或更高的吞吐量。
同时他还指出,每秒大约30个token指的是输出token,大模型对于输入token的处理速度更快,这也增加了处理的总token数,大模型通常对输入和输出分别计费,也正是这个道理。
在后续的另一个回复,贾扬清做了更详细的量化计算:
批量输出速度:单并发405b推理通常有每秒30个token的输出速度。合理的并发可以使总吞吐量提高10倍,达到每秒300个token的输出吞吐量。
输入token:输入token也被计费,通常输入token的数量远大于输出token。一个常见的聊天机器人应用可能有2048个输入token和128个输出token。假设输入输出token比率为10:1,那么每秒300个输出token的处理量相当于每秒3000个输入token。
价格:每天总共处理285,120,000个token,按当前Lepton价格每百万token2.8美元计算,收入为798.34美元。
机器成本:以lambda按需价格为基准,每张H100卡每小时3.49美元,8张H100卡一天的成本为670.08美元。
收入798.34美元,成本670.08美元,因此通过整合多种工艺方法,在合理流量下(像Lepton这样的大模型工艺支持商)是可能盈利的。
当然,这只是一个简单的推算,实际的盈利还会受到流量稳定性、计费方式、按需使用GPU的机器成本控制、解码、提示缓存以及其他因素的作用。
但某种程度上说,类似深度学习时代对CNN的不断优化,在大模型时代,也需要工艺人员对于模型进行种种优化,来保证性能提高的同时不断降低成本,这正是贾扬清看好的创业路线。
我们不妨再多讨论一下,对于贾扬清这样的AI Infra创业者,模型大小的潮流变化对他的商业模式有什么作用?
这个问题,要分不同情况分析。
如果模型参数量越大,提供模型支持的门槛越高(参考Llama 405B),其客单价自然也就越大;
另一方面,由于很多小模型实际是在大模型的基础上蒸馏而得到,模型小了,所需的计算资源并没有等幅度减少;
由于较小的模型更容易部署在不同的设备和平台上,这可能会带来应用场景的增加,虽然客单价可能降低,但在需求数量上的增加反而可能使得总收入增加;
对于贾扬清来说,META的开源路线使得贾扬清的支持对象扩大,因此开源对他来说更有利。
看来不管未来模型规模怎么不变化,贾扬清都有机会凭借工艺升级稳坐钓鱼台。这有点像之前的中国股市,不管什么消息,都是“利好茅台”啊。
这恐怕就是贾扬清最近在推特上为什么这么活跃发表看法的原因?你看好贾扬清这种AI Infra的创业路线吗?雷峰网雷峰网(公众号:雷峰网)
雷峰网原创文章,未经授权禁止转载。详情见转载须知。
产业跑进数字世界,要先迈过安全这道坎
聚力数据库与AI,OceanBase 6篇论文入选国际顶会ICDE 2025
外卖大战彻底疯狂!“一天三顿不超过10元”
Bonree ONE 2025春季版全球发布
“丹娜丝”进一步减弱 中央气象台对其停止编号
斯坦福 AI 指数报告发布:2024年美国 AI 私人投资约为中国的 12 倍、GPT3.5 级别模型推理成本下降 280 倍
乌称俄一化工厂遭袭 系俄军火供应关键环节
泛黄寻人启事暗藏惊天阴谋 《利剑·玫瑰》定档7.28剑指打拐风暴
万兴科技正式布局AIGC赛道 首款AIGC产品万兴AI绘画开启公测
推特热帖:k1.5 很牛,因为借鉴了 UCLA 与 CMU 合作团队的这项技术
三大模型巨头比拼思考“幻觉”:DeepSeek 不敌 ChatGPT,Gemini 用词最少
受台风“丹娜丝”作用,福建江西部分旅客列车停运
盼盼×Hello Kitty限定包装登录永辉717好吃节,“萌趣”零食成为社交货币
受台风“丹娜丝”作用,福建江西部分旅客列车停运
万人合唱“站在庄浪望北京”乌兰图雅庄浪演唱会上演了一场最美的雨中双向奔赴
《七月的一天》正式开机 沈月陈昊森携手勇闯漫画世界
别再说国产大模型技术突破要靠 Llama 3 开源了
DeepSeek 反思潮:AGI 既被重新审视,又被持续低估
破界·共生:网络综艺的融合创新与价值跃升
重磅发布!新华医院联合商汤医疗推出AI儿童全科医生,“深思考”大医赋能儿科发展
相声演员杨少华去世 享年九十四岁
对话UCL青年教授赵湖斌:可穿戴式DOT如何重塑脑机接口
Anthropic AI 最新研究成果发布:揭示大模型中的注意力回路
全国首个官方Cosplay大赛——上海市民文化节妆造大赛启动