此帖转自 Caravel 在 军事天地(Military) 的帖子:业界更喜欢qwen模型
(转载)业界更喜欢qwen模型
版主: hci
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 702
- 帖子: 27611
- 注册时间: 2022年 7月 24日 17:21
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 702
- 帖子: 27611
- 注册时间: 2022年 7月 24日 17:21
#5 Re: (转载)业界更喜欢qwen模型
qwen不比Gemini pro差多少
我都是两个同时用
区别是qwen比较直率,我说错了,它直接说我错了。
工具机谈智商, 犹如妓女谈贞操, 哪壶不开提哪壶
呼叫鸡谈造谣, 犹如站街女谈卖淫, 那是行家里手
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 702
- 帖子: 27611
- 注册时间: 2022年 7月 24日 17:21
#8 Re: (转载)业界更喜欢qwen模型
kimi-k2这个1T的模型我们试了一下,training太勉强,inference cost根本不划算。qwen3 235B是一个sweet spot。
#10 Re: (转载)业界更喜欢qwen模型
最牛x的是qwen coder, 平时20人做3个月的project直接写好spec扔给qwen coder,一周就跑出来了,相比codex Claude就是垃圾(太贵)。
#11 Re: (转载)业界更喜欢qwen模型
fantasist 写了: 2025年 10月 24日 13:45kimi-k2这个1T的模型我们试了一下,training太勉强,inference cost根本不划算。qwen3 235B是一个sweet spot。
qwen3 235B 需要几个H-100才跑的动?
#12 Re: (转载)业界更喜欢qwen模型
一般都是以整台8卡机器为单位,大规模serving主要研究怎么加速,比如做pd分离。个人量化到极限然后用最少的卡跑着玩,需要多少显存是可以计算的。还有cpu offloading之类牺牲速度换低显存需求的办法。
墙国好像能把4090魔改成48GB显存,这样消费级显卡也能跑,所以美帝禁售到这个级别。
#13 Re: (转载)业界更喜欢qwen模型
他只是不想得罪altman而已,openai现在是最烂的大模型。
#14 Re: (转载)业界更喜欢qwen模型
fantasist 写了: 2025年 10月 24日 15:29一般都是以整台8卡机器为单位,大规模serving主要研究怎么加速,比如做pd分离。个人量化到极限然后用最少的卡跑着玩,需要多少显存是可以计算的。还有cpu offloading之类牺牲速度换低显存需求的办法。
墙国好像能把4090魔改成48GB显存,这样消费级显卡也能跑,所以美帝禁售到这个级别。
你们用这个怎么挣钱啊?
#16 Re: (转载)业界更喜欢qwen模型
anesthetic 写了: 2025年 10月 24日 13:59最牛x的是qwen coder, 平时20人做3个月的project直接写好spec扔给qwen coder,一周就跑出来了,相比codex Claude就是垃圾(太贵)。
真的假的,我一直用claude,主要也不是我掏钱公司给出钱我也没在乎。但是如果qwen coder那么好用还能离线,不用它干嘛。
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 702
- 帖子: 27611
- 注册时间: 2022年 7月 24日 17:21
#17 Re: (转载)业界更喜欢qwen模型
anesthetic 写了: 2025年 10月 24日 13:59最牛x的是qwen coder, 平时20人做3个月的project直接写好spec扔给qwen coder,一周就跑出来了,相比codex Claude就是垃圾(太贵)。
这么厉害?从来没听别人说过
#19 Re: (转载)业界更喜欢qwen模型
我给家里年长的老人都装了通义千问。
手机界面支持语音提示。小辈不在身边的时候,帮着回答些日常问题很方便。






