Hinton的back-propagating算法涉嫌剽窃

STEM版,合并数学,物理,化学,科学,工程,机械。不包括生物、医学相关,和计算机相关内容。

版主: verdeliteTheMatrix

回复
FoxMe(令狐)楼主
论坛精英
论坛精英
帖子互动: 157
帖子: 5575
注册时间: 2022年 7月 26日 16:46

#1 Hinton的back-propagating算法涉嫌剽窃

帖子 FoxMe(令狐)楼主 »

https://en.wikipedia.org/wiki/Backpropa ... ropagation

根据维基百科,back-propagating算法是这篇文章提出的:

Werbos, Paul (1982). "Applications of advances in nonlinear sensitivity analysis" (PDF). System modeling and optimization. Springer. pp. 762–770.

http://werbos.com/Neural/SensitivityIFI ... er1981.pdf

但是Hinton他们的文章里根本没有引用:

Rumelhart; Hinton; Williams (1986). "Learning representations by back-propagating errors" (PDF). Nature. 323 (6088): 533–536.

http://www.cs.toronto.edu/~hinton/absps/naturebp.pdf

ChatGPT是这么说的:
Paul Werbos (1974) is credited with formally introducing the backpropagation algorithm in his PhD thesis.

David Rumelhart, Geoffrey Hinton, and Ronald Williams (1986) popularized the method, demonstrating its practical utility in training neural networks.
littlek(小王,大王他嗲)
著名点评
著名点评
帖子互动: 319
帖子: 4143
注册时间: 2022年 9月 11日 03:42

#2 Re: Hinton的back-propagating算法涉嫌剽窃

帖子 littlek(小王,大王他嗲) »

back-propagating早在70年代的CT图像重建就用到了,显然不是最近才有的


FoxMe 写了: 2024年 10月 20日 17:27 https://en.wikipedia.org/wiki/Backpropa ... ropagation

根据维基百科,back-propagating算法是这篇文章提出的:

Werbos, Paul (1982). "Applications of advances in nonlinear sensitivity analysis" (PDF). System modeling and optimization. Springer. pp. 762–770.

http://werbos.com/Neural/SensitivityIFI ... er1981.pdf

但是Hinton他们的文章里根本没有引用:

Rumelhart; Hinton; Williams (1986). "Learning representations by back-propagating errors" (PDF). Nature. 323 (6088): 533–536.

http://www.cs.toronto.edu/~hinton/absps/naturebp.pdf

ChatGPT是这么说的:
Paul Werbos (1974) is credited with formally introducing the backpropagation algorithm in his PhD thesis.

David Rumelhart, Geoffrey Hinton, and Ronald Williams (1986) popularized the method, demonstrating its practical utility in training neural networks.
FoxMe(令狐)楼主
论坛精英
论坛精英
帖子互动: 157
帖子: 5575
注册时间: 2022年 7月 26日 16:46

#3 Re: Hinton的back-propagating算法涉嫌剽窃

帖子 FoxMe(令狐)楼主 »

Werbos的论文被拒稿多次,也许就是这般人审稿的。

我在读研究生的时候也发生过类似的事情。我改进了几个意大利人的工作,结果论文第一轮审稿后被拒了。他们抢发了篇快报(大概两个月之后),和我的结果一模一样。我的论文后来也发表了,但是时间比他们晚。明明是他们剽窃我的工作,变成了他们先发表出来。
头像
hci(海螺子)
论坛支柱
论坛支柱
帖子互动: 511
帖子: 10325
注册时间: 2022年 7月 22日 15:29

#4 Re: Hinton的back-propagating算法涉嫌剽窃

帖子 hci(海螺子) »

这种事情很多。

这也是为啥我不搞学术了。有那功夫争那三瓜两枣,不如自己干个公司。
FoxMe 写了: 2024年 10月 20日 17:38 Werbos的论文被拒稿多次,也许就是这般人审稿的。

我在读研究生的时候也发生过类似的事情。我改进了几个意大利人的工作,结果论文第一轮审稿后被拒了。他们抢发了篇快报(大概两个月之后),和我的结果一模一样。我的论文后来也发表了,但是时间比他们晚。明明是他们剽窃我的工作,变成了他们先发表出来。
x1 图片
Caravel
论坛元老
论坛元老
Caravel 的博客
帖子互动: 689
帖子: 27219
注册时间: 2022年 7月 24日 17:21

#5 Re: Hinton的back-propagating算法涉嫌剽窃

帖子 Caravel »

littlek 写了: 2024年 10月 20日 17:32 back-propagating早在70年代的CT图像重建就用到了,显然不是最近才有的

一位是甘利俊一(Shunichi Amari)。1967年,他提出了“随机梯度下降法”(Stochasti Gradient Descent,简称SGD)。这个方法每次在训练数据集上选择一个样本或者一小批样本进行模型训练,通过对损失函数计算梯度,按照负梯度方向对模型参数进行更新。这一方法的提出,为破解神经网络的调参问题提供了有力的思路。多年以后,辛顿(Geoffrey Hinton)提出了“反向传播算法”(Backpropagation)来训练模型,而其最初的灵感就是来自SGD。
弃婴千枝
论坛支柱
论坛支柱
帖子互动: 1467
帖子: 13666
注册时间: 2022年 7月 27日 10:51

#6 Re: Hinton的back-propagating算法涉嫌剽窃

帖子 弃婴千枝 »

FoxMe 写了: 2024年 10月 20日 17:38 Werbos的论文被拒稿多次,也许就是这般人审稿的。

我在读研究生的时候也发生过类似的事情。我改进了几个意大利人的工作,结果论文第一轮审稿后被拒了。他们抢发了篇快报(大概两个月之后),和我的结果一模一样。我的论文后来也发表了,但是时间比他们晚。明明是他们剽窃我的工作,变成了他们先发表出来。
所以劳伦斯理佛猫国家实验室的物理学家发明了伟大的arxiv,
文章先发arxiv再给arxiv的link
这样他们就剽窃不了了
forecasting
著名点评
著名点评
帖子互动: 363
帖子: 4423
注册时间: 2023年 4月 17日 08:26

#7 Re: Hinton的back-propagating算法涉嫌剽窃

帖子 forecasting »

弃婴千枝 写了: 2024年 10月 21日 13:27 所以劳伦斯理佛猫国家实验室的物理学家发明了伟大的arxiv,
文章先发arxiv再给arxiv的link
这样他们就剽窃不了了
是Los Alamos National Laboratory,跟你的劳伦斯理佛猫国家实验室有半毛钱关系吗?土佬。 :D :D :D :lol: :lol: :lol:
回复

回到 “STEM”