#1 中国把主流LLM的价钱干到了15万
“褐蚁”一体机,跑完整版671B,速度超过了DeepSeek官方api
https://www.xingyun.xin/cp
下一个目标是5万块,预计2026年推出
“褐蚁”一体机,跑完整版671B,速度超过了DeepSeek官方api
https://www.xingyun.xin/cp
下一个目标是5万块,预计2026年推出
有啥特别的?不就是组装机吗?
需要软件优化,不是那么容易的
这年头最便宜的就是优化软件,牛逼不值钱。
证明了我帝股票远不值那些钱
你拉到吧
你去干十年做不出一个屁
五毛蛆也懂软件优化?
![]()
这个方向主要看谁能搞出Unified Memory+内存要2T起.
如果再加上512G SRAM就更厉害了. 不过现在内存涨价的前景下并不乐观.主要是帮助内存厂赚钱.还是需要在算法上压缩内存开销. DeepSeek OCR的下一步有戏.
inference不值钱,训练才需要高档的显卡。
这还是太贵了,
网上一堆的用CPU就可以运行DS671b满血版。
加上一块显卡,用ktransformer offload就可以了。
5000到6000刀。
黄皮衣表示:没看见,不相信,不承认。
AI及英伟达,英伟达及AI,没用英伟达高端芯片的AI都是假 AI.
深度学习就是软件的突破,黄人碾压白人啊
你看帖不仔细
这个方案的速度超过官方api,放一个在家里可以绕过监管制造黄赌毒大规模杀伤性武器
rtscts 写了: 2025年 11月 5日 14:15这还是太贵了,
网上一堆的用CPU就可以运行DS671b满血版。
加上一块显卡,用ktransformer offload就可以了。
5000到6000刀。
然而现有方法训练已经走到头了,除非发现外星人的语料库
作者在zhihu上解释过,不只是内存大小,负载均匀分配非常重要,是个并行优化问题
现在这个方案把各种芯片的能力都用到极限
fanqie 写了: 2025年 11月 5日 09:44这个方向主要看谁能搞出Unified Memory+内存要2T起.
如果再加上512G SRAM就更厉害了. 不过现在内存涨价的前景下并不乐观.主要是帮助内存厂赚钱.还是需要在算法上压缩内存开销. DeepSeek OCR的下一步有戏.
老实说,现在美国台湾黄仁的硬件能跟白人打个平手。大陆黄仁硬件软不拉几,软件浠不拉几,除了copy开源,狗屁都不懂。
40磅冻肉其实狗屁不懂
尽开黄腔
你属于菌斑的老人,陈腐的知识库,还要跑出来丢人现眼
中国软件干出来啥?别吹TT,那也是收购美国公司换来的。老川不让中国用美国工业软件,你包叔第一个就不答应。
你个僵尸肉懂个屁。musical ly 被收购前的团队全在上海,不过是target美国市场而已。
fanqie 写了: 2025年 11月 5日 09:44这个方向主要看谁能搞出Unified Memory+内存要2T起.
如果再加上512G SRAM就更厉害了. 不过现在内存涨价的前景下并不乐观.主要是帮助内存厂赚钱.还是需要在算法上压缩内存开销. DeepSeek OCR的下一步有戏.
你是不是对SRAM成本没概念
这玩意儿巨贵,最高级的x86 CPU也才500MB