中国把主流LLM的价钱干到了15万

对应老买买提的军事天地,观点交锋比较激烈,反驳不留情面,请作好心理准备。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。


版主: Softfist

xiaoju(可爱的龙猫)楼主
论坛元老
论坛元老
帖子互动: 1166
帖子: 27381
注册时间: 2023年 9月 5日 20:18

#1 中国把主流LLM的价钱干到了15万

帖子 xiaoju(可爱的龙猫)楼主 »

“褐蚁”一体机,跑完整版671B,速度超过了DeepSeek官方api
https://www.xingyun.xin/cp

下一个目标是5万块,预计2026年推出

mobster6
见习点评
见习点评
帖子互动: 189
帖子: 1553
注册时间: 2024年 6月 27日 23:19

#2 Re: 中国把主流LLM的价钱干到了15万

帖子 mobster6 »

有啥特别的?不就是组装机吗?

xiaoju(可爱的龙猫)楼主
论坛元老
论坛元老
帖子互动: 1166
帖子: 27381
注册时间: 2023年 9月 5日 20:18

#3 Re: 中国把主流LLM的价钱干到了15万

帖子 xiaoju(可爱的龙猫)楼主 »

需要软件优化,不是那么容易的

mobster6 写了: 2025年 11月 5日 08:40

有啥特别的?不就是组装机吗?

头像
laodongzhe18(组长)
论坛元老
论坛元老
帖子互动: 1416
帖子: 34450
注册时间: 2022年 7月 26日 09:36

#4 Re: 中国把主流LLM的价钱干到了15万

帖子 laodongzhe18(组长) »

这年头最便宜的就是优化软件,牛逼不值钱。

xiaoju 写了: 2025年 11月 5日 08:42

需要软件优化,不是那么容易的

而生 在难逃
头像
matlab
论坛支柱
论坛支柱
matlab 的博客
帖子互动: 743
帖子: 9476
注册时间: 2023年 3月 3日 14:35

#5 Re: 中国把主流LLM的价钱干到了15万

帖子 matlab »

证明了我帝股票远不值那些钱

x1 图片 x1 图片
锟斤拷要锟矫猴拷学习锟斤拷
美华
知名人士
知名人士
帖子互动: 6
帖子: 55
注册时间: 2025年 10月 29日 02:32

#6 Re: 中国把主流LLM的价钱干到了15万

帖子 美华 »

你拉到吧
你去干十年做不出一个屁

laodongzhe18 写了: 2025年 11月 5日 08:51

这年头最便宜的就是优化软件,牛逼不值钱。

x1 图片
mobster6
见习点评
见习点评
帖子互动: 189
帖子: 1553
注册时间: 2024年 6月 27日 23:19

#7 Re: 中国把主流LLM的价钱干到了15万

帖子 mobster6 »

xiaoju 写了: 2025年 11月 5日 08:42

需要软件优化,不是那么容易的

五毛蛆也懂软件优化? :lol: :lol: :lol:

头像
fanqie
论坛元老
论坛元老
帖子互动: 1306
帖子: 17629
注册时间: 2023年 2月 22日 13:23

#8 Re: 中国把主流LLM的价钱干到了15万

帖子 fanqie »

这个方向主要看谁能搞出Unified Memory+内存要2T起.
如果再加上512G SRAM就更厉害了. 不过现在内存涨价的前景下并不乐观.主要是帮助内存厂赚钱.还是需要在算法上压缩内存开销. DeepSeek OCR的下一步有戏.

dealfinder10
论坛精英
论坛精英
帖子互动: 940
帖子: 7891
注册时间: 2023年 10月 6日 14:56

#9 Re: 中国把主流LLM的价钱干到了15万

帖子 dealfinder10 »

inference不值钱,训练才需要高档的显卡。

rtscts
论坛精英
论坛精英
帖子互动: 889
帖子: 8339
注册时间: 2023年 9月 10日 15:11

#10 Re: 中国把主流LLM的价钱干到了15万

帖子 rtscts »

这还是太贵了,

网上一堆的用CPU就可以运行DS671b满血版。

加上一块显卡,用ktransformer offload就可以了。

5000到6000刀。

somesome(dingding)
论坛精英
论坛精英
帖子互动: 861
帖子: 5560
注册时间: 2022年 10月 10日 15:50

#11 Re: 中国把主流LLM的价钱干到了15万

帖子 somesome(dingding) »

黄皮衣表示:没看见,不相信,不承认。
AI及英伟达,英伟达及AI,没用英伟达高端芯片的AI都是假 AI.

xiaoju(可爱的龙猫)楼主
论坛元老
论坛元老
帖子互动: 1166
帖子: 27381
注册时间: 2023年 9月 5日 20:18

#12 Re: 中国把主流LLM的价钱干到了15万

帖子 xiaoju(可爱的龙猫)楼主 »

深度学习就是软件的突破,黄人碾压白人啊

laodongzhe18 写了: 2025年 11月 5日 08:51

这年头最便宜的就是优化软件,牛逼不值钱。

x1 图片
xiaoju(可爱的龙猫)楼主
论坛元老
论坛元老
帖子互动: 1166
帖子: 27381
注册时间: 2023年 9月 5日 20:18

#13 Re: 中国把主流LLM的价钱干到了15万

帖子 xiaoju(可爱的龙猫)楼主 »

你看帖不仔细

这个方案的速度超过官方api,放一个在家里可以绕过监管制造黄赌毒大规模杀伤性武器

rtscts 写了: 2025年 11月 5日 14:15

这还是太贵了,

网上一堆的用CPU就可以运行DS671b满血版。

加上一块显卡,用ktransformer offload就可以了。

5000到6000刀。

xiaoju(可爱的龙猫)楼主
论坛元老
论坛元老
帖子互动: 1166
帖子: 27381
注册时间: 2023年 9月 5日 20:18

#14 Re: 中国把主流LLM的价钱干到了15万

帖子 xiaoju(可爱的龙猫)楼主 »

然而现有方法训练已经走到头了,除非发现外星人的语料库

dealfinder10 写了: 2025年 11月 5日 09:46

inference不值钱,训练才需要高档的显卡。

xiaoju(可爱的龙猫)楼主
论坛元老
论坛元老
帖子互动: 1166
帖子: 27381
注册时间: 2023年 9月 5日 20:18

#15 Re: 中国把主流LLM的价钱干到了15万

帖子 xiaoju(可爱的龙猫)楼主 »

作者在zhihu上解释过,不只是内存大小,负载均匀分配非常重要,是个并行优化问题

现在这个方案把各种芯片的能力都用到极限

fanqie 写了: 2025年 11月 5日 09:44

这个方向主要看谁能搞出Unified Memory+内存要2T起.
如果再加上512G SRAM就更厉害了. 不过现在内存涨价的前景下并不乐观.主要是帮助内存厂赚钱.还是需要在算法上压缩内存开销. DeepSeek OCR的下一步有戏.

头像
laodongzhe18(组长)
论坛元老
论坛元老
帖子互动: 1416
帖子: 34450
注册时间: 2022年 7月 26日 09:36

#16 Re: 中国把主流LLM的价钱干到了15万

帖子 laodongzhe18(组长) »

老实说,现在美国台湾黄仁的硬件能跟白人打个平手。大陆黄仁硬件软不拉几,软件浠不拉几,除了copy开源,狗屁都不懂。

xiaoju 写了: 2025年 11月 5日 17:10

深度学习就是软件的突破,黄人碾压白人啊

而生 在难逃
头像
民主自由是婊子的遮羞布(谁的帝)
论坛元老
论坛元老
帖子互动: 1151
帖子: 16982
注册时间: 2022年 8月 31日 10:43

#17 Re: 中国把主流LLM的价钱干到了15万

帖子 民主自由是婊子的遮羞布(谁的帝) »

laodongzhe18 写了: 2025年 11月 5日 17:45

老实说,现在美国台湾黄仁的硬件能跟白人打个平手。大陆黄仁硬件软不拉几,软件浠不拉几,除了copy开源,狗屁都不懂。

40磅冻肉其实狗屁不懂

尽开黄腔

你属于菌斑的老人,陈腐的知识库,还要跑出来丢人现眼

x1 图片 x1 图片
你帝,我帝,他帝,谁的帝?
头像
laodongzhe18(组长)
论坛元老
论坛元老
帖子互动: 1416
帖子: 34450
注册时间: 2022年 7月 26日 09:36

#18 Re: 中国把主流LLM的价钱干到了15万

帖子 laodongzhe18(组长) »

中国软件干出来啥?别吹TT,那也是收购美国公司换来的。老川不让中国用美国工业软件,你包叔第一个就不答应。

民主自由是婊子的遮羞布 写了: 2025年 11月 5日 17:48

40磅冻肉其实狗屁不懂

尽开黄腔

你属于菌斑的老人,陈腐的知识库,还要跑出来丢人现眼

而生 在难逃
sdehc
论坛点评
论坛点评
帖子互动: 134
帖子: 2109
注册时间: 2022年 7月 24日 06:40

#19 Re: 中国把主流LLM的价钱干到了15万

帖子 sdehc »

laodongzhe18 写了: 2025年 11月 5日 17:51

中国软件干出来啥?别吹TT,那也是收购美国公司换来的。老川不让中国用美国工业软件,你包叔第一个就不答应。

你个僵尸肉懂个屁。musical ly 被收购前的团队全在上海,不过是target美国市场而已。

x1 图片 x1 图片
苍井吱(苍井吱吱)
论坛点评
论坛点评
帖子互动: 269
帖子: 2714
注册时间: 2024年 6月 17日 15:27

#20 Re: 中国把主流LLM的价钱干到了15万

帖子 苍井吱(苍井吱吱) »

fanqie 写了: 2025年 11月 5日 09:44

这个方向主要看谁能搞出Unified Memory+内存要2T起.
如果再加上512G SRAM就更厉害了. 不过现在内存涨价的前景下并不乐观.主要是帮助内存厂赚钱.还是需要在算法上压缩内存开销. DeepSeek OCR的下一步有戏.

你是不是对SRAM成本没概念

这玩意儿巨贵,最高级的x86 CPU也才500MB

2021年度十大优秀网友
2028年度优秀版主
按摩店前股东
脑特残的荣誉爹地

回复

回到 “军事天地(Military)”