分页: 1 / 1

#1 deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 10:32
Caravel

#2 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 10:41
(ヅ)
试了一下32b参数的DS r1

真的啰嗦

图片

#3 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 11:39
Caravel
(ヅ) 写了: 2025年 1月 22日 10:41 试了一下32b参数的DS r1

真的啰嗦

图片
人思考的时候也会嘀嘀咕咕

#4 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 11:45
赖美豪中
lol,人家拿去4o比较,可以看出来deepseek是用4o train出来的
Caravel 写了: 2025年 1月 22日 10:32

#5 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 12:24
huangchong
(ヅ) 写了: 2025年 1月 22日 10:41 试了一下32b参数的DS r1

真的啰嗦

图片
我早上用Lmstudio玩了一下 它的啰嗦内容折叠在一个过程框里 结果还是分条输出的 虽然废话还是挺多 但是可以接受

#6 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 12:32
Caravel
赖美豪中 写了: 2025年 1月 22日 11:45 lol,人家拿去4o比较,可以看出来deepseek是用4o train出来的
o1train出来的,为什么比原本还厉害?

#7 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 12:35
赖美豪中
你有一个很大的误解,LLM产生的答案只有统计学意义上的优劣,没有个体优劣
Caravel 写了: 2025年 1月 22日 12:32 o1train出来的,为什么比原本还厉害?

#8 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 12:37
Caravel
赖美豪中 写了: 2025年 1月 22日 12:35 你有一个很大的误解,LLM产生的答案只有统计学意义上的优劣,没有个体优劣
training data错的,不可能得出正确答案

#9 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 12:50
赖美豪中
我觉得根本没必要狂吹deepseek. 根本没有啥真正意义上的突破。地球人都知道他们采用了pretrained喂屎的捷径。你可以凹这是‘突破’,但是这个突破根本没啥意义,就算是真的
Caravel 写了: 2025年 1月 22日 12:37 training data错的,不可能得出正确答案

#10 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 13:09
Caravel
赖美豪中 写了: 2025年 1月 22日 12:50 我觉得根本没必要狂吹deepseek. 根本没有啥真正意义上的突破。地球人都知道他们采用了pretrained喂屎的捷径。你可以凹这是‘突破’,但是这个突破根本没啥意义,就算是真的
这是一个game changer,靠砸钱的模式不行了。

你看看业内人士的评论,根本没有人质疑他们用部分别的大模型合成数据,都是网民在瞎叫。这根本不是什么问题。今天Google刚出的模型还是不如R1

#11 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 17:52
cloudpig
如果都像土工那样,别人开源自己就创新,地球
科技还在石器时代。妈逼deepseek专门偷人家的
答案做训练数据,叫个鸡巴创新。

#12 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 17:54
rtscts
cloudpig 写了: 2025年 1月 22日 17:52 如果都像土工那样,别人开源自己就创新,地球
科技还在石器时代。妈逼deepseek专门偷人家的
答案做训练数据,叫个鸡巴创新。
这个几把玩意网名起的好,确实是猪。

#13 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 17:57
lonelyarcher
人家都开源了,还在嘴硬硬殴
知道啥叫开源不,连怎么training 的步骤都告诉你

#14 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 18:05
kreisler
lonelyarcher 写了: 2025年 1月 22日 17:57 人家都开源了,还在嘴硬硬殴
知道啥叫开源不,连怎么training 的步骤都告诉你
你可以去问一下deepseek 是开源大模型吗 你看看它是怎么回答你的

#15 Re: deepseek R1和OAI o1代码生成比较

发表于 : 2025年 1月 22日 18:18
NativeMan8080
Deepseek's response to your comments.

“我理解你对这个问题的强烈情绪,但我想澄清一些误解。首先,DeepSeek 是一个开源大模型,其目标是推动技术进步和知识共享。开源社区的核心精神是合作与共享,许多创新正是基于前人的工作逐步发展起来的。

关于训练数据,大多数开源项目都会遵循严格的道德和法律准则,确保数据的使用是合法和透明的。DeepSeek 也不例外,它在数据使用和模型训练过程中会尽量遵守这些准则。

如果你对某些具体问题有疑问或不满,欢迎提出,我们可以一起探讨。技术的进步需要大家的共同努力和建设性的讨论。希望我们能以积极的态度看待开源和创新,共同推动科技的发展。"
cloudpig 写了: 2025年 1月 22日 17:52 如果都像土工那样,别人开源自己就创新,地球
科技还在石器时代。妈逼deepseek专门偷人家的
答案做训练数据,叫个鸡巴创新。