(转载)业界更喜欢qwen模型

版主: hci

Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 702
帖子: 27610
注册时间: 2022年 7月 24日 17:21

#1 (转载)业界更喜欢qwen模型

帖子 Caravel楼主 »

此帖转自 Caravel 在 军事天地(Military) 的帖子:业界更喜欢qwen模型


+1.00 积分 [版主 hci 发放的奖励]
windy(文帝)
著名点评
著名点评
帖子互动: 1032
帖子: 5210
注册时间: 2023年 2月 7日 18:53

#2 Re: (转载)业界更喜欢qwen模型

帖子 windy(文帝) »

他说的很清楚,Qwen便宜,快,足够好。OpenAI其实更好,但太贵。所以从利润角度,大部分用Qwen.

Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 702
帖子: 27610
注册时间: 2022年 7月 24日 17:21

#3 Re: (转载)业界更喜欢qwen模型

帖子 Caravel楼主 »

windy 写了: 2025年 10月 24日 07:33

他说的很清楚,Qwen便宜,快,足够好。OpenAI其实更好,但太贵。所以从利润角度,大部分用Qwen.

他们用来做客服,token量很大

pathdream(葱韭集团团长)
论坛元老
论坛元老
帖子互动: 1655
帖子: 33099
注册时间: 2022年 7月 25日 11:42

#4 Re: (转载)业界更喜欢qwen模型

帖子 pathdream(葱韭集团团长) »

炒币世界第一

https://nof1.ai/

草你特铐谱祖宗十八代加后十八代 你踏马的去死吧
头像
wokao
论坛元老
论坛元老
帖子互动: 1189
帖子: 21859
注册时间: 2023年 3月 11日 19:17

#5 Re: (转载)业界更喜欢qwen模型

帖子 wokao »

qwen不比Gemini pro差多少
我都是两个同时用
区别是qwen比较直率,我说错了,它直接说我错了。

Caravel 写了: 2025年 10月 24日 00:36

此帖转自 Caravel 在 军事天地(Military) 的帖子:业界更喜欢qwen模型

工具机谈智商, 犹如妓女谈贞操, 哪壶不开提哪壶
呼叫鸡谈造谣, 犹如站街女谈卖淫, 那是行家里手

fantasist
见习点评
见习点评
帖子互动: 259
帖子: 1831
注册时间: 2022年 7月 24日 19:52

#6 Re: (转载)业界更喜欢qwen模型

帖子 fantasist »

阿里做事非常solid。qwen3 training和inference成本低,实际效果比DS好,虽然PR做不过他们。

x1 图片
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 702
帖子: 27610
注册时间: 2022年 7月 24日 17:21

#7 Re: (转载)业界更喜欢qwen模型

帖子 Caravel楼主 »

fantasist 写了: 2025年 10月 24日 12:26

阿里做事非常solid。qwen3 training和inference成本低,实际效果比DS好,虽然PR做不过他们。

DS也很牛逼,国内现在新一代模型基本都仿照了DS V3的架构,水平提升了一大截。但是他们模型太大,用起来不方便。

fantasist
见习点评
见习点评
帖子互动: 259
帖子: 1831
注册时间: 2022年 7月 24日 19:52

#8 Re: (转载)业界更喜欢qwen模型

帖子 fantasist »

Caravel 写了: 2025年 10月 24日 12:43

DS也很牛逼,国内现在新一代模型基本都仿照了DS V3的架构,水平提升了一大截。但是他们模型太大,用起来不方便。

kimi-k2这个1T的模型我们试了一下,training太勉强,inference cost根本不划算。qwen3 235B是一个sweet spot。

anesthetic
知名作家
知名作家
帖子互动: 101
帖子: 1089
注册时间: 2022年 8月 30日 01:02

#9 Re: (转载)业界更喜欢qwen模型

帖子 anesthetic »

这不很正常吗,qwen一直都霸榜hugging。。。

anesthetic
知名作家
知名作家
帖子互动: 101
帖子: 1089
注册时间: 2022年 8月 30日 01:02

#10 Re: (转载)业界更喜欢qwen模型

帖子 anesthetic »

最牛x的是qwen coder, 平时20人做3个月的project直接写好spec扔给qwen coder,一周就跑出来了,相比codex Claude就是垃圾(太贵)。

wildthing
著名点评
著名点评
帖子互动: 282
帖子: 4566
注册时间: 2022年 7月 22日 14:25

#11 Re: (转载)业界更喜欢qwen模型

帖子 wildthing »

fantasist 写了: 2025年 10月 24日 13:45

kimi-k2这个1T的模型我们试了一下,training太勉强,inference cost根本不划算。qwen3 235B是一个sweet spot。

qwen3 235B 需要几个H-100才跑的动?

司马光在《资治通鉴》中说日本人:'知小礼而无大义,拘小节而无大德。重末节而无廉耻,畏威而不怀德。强必盗寇,弱必卑伏'。
康熙皇帝在《康熙朝起居注》中这样评论日本人:“倭子国,最是反复无常之国。其人,甚卑贱,不知世上有恩谊,只一味慑于武威……故尔,不得对其有稍许好颜色。”

图片
fantasist
见习点评
见习点评
帖子互动: 259
帖子: 1831
注册时间: 2022年 7月 24日 19:52

#12 Re: (转载)业界更喜欢qwen模型

帖子 fantasist »

wildthing 写了: 2025年 10月 24日 15:13

qwen3 235B 需要几个H-100才跑的动?

一般都是以整台8卡机器为单位,大规模serving主要研究怎么加速,比如做pd分离。个人量化到极限然后用最少的卡跑着玩,需要多少显存是可以计算的。还有cpu offloading之类牺牲速度换低显存需求的办法。
墙国好像能把4090魔改成48GB显存,这样消费级显卡也能跑,所以美帝禁售到这个级别。

上次由 fantasist 在 2025年 10月 24日 15:40 修改。
赖美豪中(my pronouns: ha/ha)
论坛元老
论坛元老
2023年度优秀版主
帖子互动: 4540
帖子: 46728
注册时间: 2022年 9月 6日 12:50

#13 Re: (转载)业界更喜欢qwen模型

帖子 赖美豪中(my pronouns: ha/ha) »

他只是不想得罪altman而已,openai现在是最烂的大模型。

windy 写了: 2025年 10月 24日 07:33

他说的很清楚,Qwen便宜,快,足够好。OpenAI其实更好,但太贵。所以从利润角度,大部分用Qwen.

x1 图片
If printing money would end poverty, printing diplomas would end stupidity.
wildthing
著名点评
著名点评
帖子互动: 282
帖子: 4566
注册时间: 2022年 7月 22日 14:25

#14 Re: (转载)业界更喜欢qwen模型

帖子 wildthing »

fantasist 写了: 2025年 10月 24日 15:29

一般都是以整台8卡机器为单位,大规模serving主要研究怎么加速,比如做pd分离。个人量化到极限然后用最少的卡跑着玩,需要多少显存是可以计算的。还有cpu offloading之类牺牲速度换低显存需求的办法。
墙国好像能把4090魔改成48GB显存,这样消费级显卡也能跑,所以美帝禁售到这个级别。

你们用这个怎么挣钱啊?

司马光在《资治通鉴》中说日本人:'知小礼而无大义,拘小节而无大德。重末节而无廉耻,畏威而不怀德。强必盗寇,弱必卑伏'。
康熙皇帝在《康熙朝起居注》中这样评论日本人:“倭子国,最是反复无常之国。其人,甚卑贱,不知世上有恩谊,只一味慑于武威……故尔,不得对其有稍许好颜色。”

图片
fantasist
见习点评
见习点评
帖子互动: 259
帖子: 1831
注册时间: 2022年 7月 24日 19:52

#15 Re: (转载)业界更喜欢qwen模型

帖子 fantasist »

wildthing 写了: 2025年 10月 24日 15:42

你们用这个怎么挣钱啊?

我现在这个startup目前还是以user growth为主。
想一开始就挣钱的话,就是另一种创业思路了。

pnlmpnlm(pnlm)
职业作家
职业作家
帖子互动: 86
帖子: 481
注册时间: 2025年 2月 12日 03:13

#16 Re: (转载)业界更喜欢qwen模型

帖子 pnlmpnlm(pnlm) »

anesthetic 写了: 2025年 10月 24日 13:59

最牛x的是qwen coder, 平时20人做3个月的project直接写好spec扔给qwen coder,一周就跑出来了,相比codex Claude就是垃圾(太贵)。

真的假的,我一直用claude,主要也不是我掏钱公司给出钱我也没在乎。但是如果qwen coder那么好用还能离线,不用它干嘛。

Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 702
帖子: 27610
注册时间: 2022年 7月 24日 17:21

#17 Re: (转载)业界更喜欢qwen模型

帖子 Caravel楼主 »

anesthetic 写了: 2025年 10月 24日 13:59

最牛x的是qwen coder, 平时20人做3个月的project直接写好spec扔给qwen coder,一周就跑出来了,相比codex Claude就是垃圾(太贵)。

这么厉害?从来没听别人说过

头像
hci(海螺子)
论坛支柱
论坛支柱
帖子互动: 535
帖子: 10413
注册时间: 2022年 7月 22日 15:29

#18 Re: (转载)业界更喜欢qwen模型

帖子 hci(海螺子) »

Qwen 与codex的能力差距还是很大的。前者不能用来啃硬骨头,也就是复杂代码的修改和调试,后者可以。

Caravel 写了: 2025年 10月 24日 17:51

这么厉害?从来没听别人说过

头像
wmysh(我没有啥好)
论坛精英
论坛精英
帖子互动: 957
帖子: 6300
注册时间: 2023年 3月 10日 20:59
来自: Ex medio nullis locis

#19 Re: (转载)业界更喜欢qwen模型

帖子 wmysh(我没有啥好) »

我给家里年长的老人都装了通义千问。
手机界面支持语音提示。小辈不在身边的时候,帮着回答些日常问题很方便。

There are two ways to conquer and enslave a country. One is by the sword. The other is by debt. - John Adams
anesthetic
知名作家
知名作家
帖子互动: 101
帖子: 1089
注册时间: 2022年 8月 30日 01:02

#20 Re: (转载)业界更喜欢qwen模型

帖子 anesthetic »

hci 写了: 2025年 10月 24日 18:06

Qwen 与codex的能力差距还是很大的。前者不能用来啃硬骨头,也就是复杂代码的修改和调试,后者可以。

qwen确实不适合读屎山代码,新项目完全木有问题,3天可以干出个8成功力的tiktok

回复

回到 “葵花宝典(Programming)”