分页: 1 / 1

#1 DeepSeek很固执,不好教

发表于 : 2025年 2月 5日 19:28
forecasting
上次为难它一下,反复辱骂恐吓提示才改了一个定义的叙述。

第一次用,让它基于最小作用量原理和群论(对称性)推导场论并量子化,被震惊了,尽管跳跃的,但基本没问题。

那天让它分析Roth定理和Chow关于解析流形嵌入射影空间的关系,它又胡说一通

今天让它比较证明,计算和语法分析,它非说它们本质上不一样,怎麽骂吓指点也不行。反倒是chatGPT回答得很好,验证了DS团队缺乏理论知识的猜想。

纠正它很难,所以说它能RL(Reinforcement Learning)几乎是炒作,而且如果不熟悉它涉及的内容,很容易被误导。

#2 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 5日 20:14
redot
如何任何一个人都可以“纠正”AI库, 你敢用吗?
要纠正, 搞自己的本地专用数据啊

#3 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 5日 20:42
xexz
redot 写了: 2025年 2月 5日 20:14 如何任何一个人都可以“纠正”AI库, 你敢用吗?
要纠正, 搞自己的本地专用数据啊


专用人工智障 :mrgreen: :mrgreen: :mrgreen:

#4 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 02:53
goodegg
哥们都开源了,你可以自己微调呀。
forecasting 写了: 2025年 2月 5日 19:28 上次为难它一下,反复辱骂恐吓提示才改了一个定义的叙述。

第一次用,让它基于最小作用量原理和群论(对称性)推导场论并量子化,被震惊了,尽管跳跃的,但基本没问题。

那天让它分析Roth定理和Chow关于解析流形嵌入射影空间的关系,它又胡说一通

今天让它比较证明,计算和语法分析,它非说它们本质上不一样,怎麽骂吓指点也不行。反倒是chatGPT回答得很好,验证了DS团队缺乏理论知识的猜想。

纠正它很难,所以说它能RL几乎是炒作,而且如果不熟悉它涉及的内容,很容易被误导。

#5 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 03:08
wdong
goodegg 写了: 2025年 2月 6日 02:53 哥们都开源了,你可以自己微调呀。
越微调越固执。这个固执本身就是微调出来的。

#6 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 06:35
forecasting
redot 写了: 2025年 2月 5日 20:14 如何任何一个人都可以“纠正”AI库, 你敢用吗?
要纠正, 搞自己的本地专用数据啊
可纠正的标准应该是人方所提供答案是真。换言之,DS不辨真假,因此“顽固”

#7 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 09:05
macarthur
可以实时从用户互动里学习搞“Reinforaced Learning”??? 他们有胆子这么干?非常怀疑。。。

人人都可以调教的chatbot,能学成什么样,你自己想象吧。。。 :D :D :D

#8 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 09:31
forecasting
macarthur 写了: 2025年 2月 6日 09:05 可以实时从用户互动里学习搞“Reinforaced Learning”??? 他们有胆子这么干?非常怀疑。。。

人人都可以调教的chatbot,能学成什么样,你自己想象吧。。。 :D :D :D
元帅,你就听他们吹就是,何必揭破。话都是人说的

#9 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 09:35
赖美豪中
你不要着急,我的经验是一般ds答错得,过一会就会和gpt一致了。当然他的上限就是gpt。他的粉丝也都是不肯交月费得
forecasting 写了: 2025年 2月 5日 19:28 上次为难它一下,反复辱骂恐吓提示才改了一个定义的叙述。

第一次用,让它基于最小作用量原理和群论(对称性)推导场论并量子化,被震惊了,尽管跳跃的,但基本没问题。

那天让它分析Roth定理和Chow关于解析流形嵌入射影空间的关系,它又胡说一通

今天让它比较证明,计算和语法分析,它非说它们本质上不一样,怎麽骂吓指点也不行。反倒是chatGPT回答得很好,验证了DS团队缺乏理论知识的猜想。

纠正它很难,所以说它能RL(Reinforcement Learning)几乎是炒作,而且如果不熟悉它涉及的内容,很容易被误导。

#10 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 09:46
Caravel
赖美豪中 写了: 2025年 2月 6日 09:35 你不要着急,我的经验是一般ds答错得,过一会就会和gpt一致了。当然他的上限就是gpt。他的粉丝也都是不肯交月费得
笑死,你举个例子看看

#11 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 18:13
redot
forecasting 写了: 2025年 2月 6日 06:35 可纠正的标准应该是人方所提供答案是真。换言之,DS不辨真假,因此“顽固”
问题就在这里,谁赖判断,怎么判断正确还是错愕
ai还没有这个智能和水平,和屁民一样,可能被忽悠
现在非问题是,是谁都可以忽悠和固执点,更合理

#12 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 18:15
redot
赖美豪中 写了: 2025年 2月 6日 09:35 你不要着急,我的经验是一般ds答错得,过一会就会和gpt一致了。当然他的上限就是gpt。他的粉丝也都是不肯交月费得
不对啊 乳X!+1 哪一题,gpt是错的最离谱的
很多例子斗证明gpt美智商啊

#13 Re: DeepSeek很固执,不好教

发表于 : 2025年 2月 6日 18:20
赖美豪中
那你就错了,只有蒸馏得才能答对已知难题。deepshit这种蒸馏已有模型绝对是把大家带进沟里得一个方向。
redot 写了: 2025年 2月 6日 18:15 不对啊 乳X!+1 哪一题,gpt是错的最离谱的
很多例子斗证明gpt美智商啊