DeepSeek很固执,不好教
版主: verdelite, TheMatrix
#1 DeepSeek很固执,不好教
上次为难它一下,反复辱骂恐吓提示才改了一个定义的叙述。
第一次用,让它基于最小作用量原理和群论(对称性)推导场论并量子化,被震惊了,尽管跳跃的,但基本没问题。
那天让它分析Roth定理和Chow关于解析流形嵌入射影空间的关系,它又胡说一通
今天让它比较证明,计算和语法分析,它非说它们本质上不一样,怎麽骂吓指点也不行。反倒是chatGPT回答得很好,验证了DS团队缺乏理论知识的猜想。
纠正它很难,所以说它能RL(Reinforcement Learning)几乎是炒作,而且如果不熟悉它涉及的内容,很容易被误导。
第一次用,让它基于最小作用量原理和群论(对称性)推导场论并量子化,被震惊了,尽管跳跃的,但基本没问题。
那天让它分析Roth定理和Chow关于解析流形嵌入射影空间的关系,它又胡说一通
今天让它比较证明,计算和语法分析,它非说它们本质上不一样,怎麽骂吓指点也不行。反倒是chatGPT回答得很好,验证了DS团队缺乏理论知识的猜想。
纠正它很难,所以说它能RL(Reinforcement Learning)几乎是炒作,而且如果不熟悉它涉及的内容,很容易被误导。
上次由 forecasting 在 2025年 2月 6日 07:17 修改。
#4 Re: DeepSeek很固执,不好教
哥们都开源了,你可以自己微调呀。
forecasting 写了: 2025年 2月 5日 19:28 上次为难它一下,反复辱骂恐吓提示才改了一个定义的叙述。
第一次用,让它基于最小作用量原理和群论(对称性)推导场论并量子化,被震惊了,尽管跳跃的,但基本没问题。
那天让它分析Roth定理和Chow关于解析流形嵌入射影空间的关系,它又胡说一通
今天让它比较证明,计算和语法分析,它非说它们本质上不一样,怎麽骂吓指点也不行。反倒是chatGPT回答得很好,验证了DS团队缺乏理论知识的猜想。
纠正它很难,所以说它能RL几乎是炒作,而且如果不熟悉它涉及的内容,很容易被误导。
#7 Re: DeepSeek很固执,不好教
可以实时从用户互动里学习搞“Reinforaced Learning”??? 他们有胆子这么干?非常怀疑。。。
人人都可以调教的chatbot,能学成什么样,你自己想象吧。。。

人人都可以调教的chatbot,能学成什么样,你自己想象吧。。。



跳出三界外,不在五行中
#8 Re: DeepSeek很固执,不好教
元帅,你就听他们吹就是,何必揭破。话都是人说的macarthur 写了: 2025年 2月 6日 09:05 可以实时从用户互动里学习搞“Reinforaced Learning”??? 他们有胆子这么干?非常怀疑。。。
人人都可以调教的chatbot,能学成什么样,你自己想象吧。。。![]()
![]()
![]()
#9 Re: DeepSeek很固执,不好教
你不要着急,我的经验是一般ds答错得,过一会就会和gpt一致了。当然他的上限就是gpt。他的粉丝也都是不肯交月费得
forecasting 写了: 2025年 2月 5日 19:28 上次为难它一下,反复辱骂恐吓提示才改了一个定义的叙述。
第一次用,让它基于最小作用量原理和群论(对称性)推导场论并量子化,被震惊了,尽管跳跃的,但基本没问题。
那天让它分析Roth定理和Chow关于解析流形嵌入射影空间的关系,它又胡说一通
今天让它比较证明,计算和语法分析,它非说它们本质上不一样,怎麽骂吓指点也不行。反倒是chatGPT回答得很好,验证了DS团队缺乏理论知识的猜想。
纠正它很难,所以说它能RL(Reinforcement Learning)几乎是炒作,而且如果不熟悉它涉及的内容,很容易被误导。
If printing money would end poverty, printing diplomas would end stupidity.
-
- 论坛元老
Caravel 的博客 - 帖子互动: 693
- 帖子: 27367
- 注册时间: 2022年 7月 24日 17:21
#13 Re: DeepSeek很固执,不好教
那你就错了,只有蒸馏得才能答对已知难题。deepshit这种蒸馏已有模型绝对是把大家带进沟里得一个方向。
If printing money would end poverty, printing diplomas would end stupidity.