https://en.wikipedia.org/wiki/Backpropa ... ropagation
根据维基百科,back-propagating算法是这篇文章提出的:
Werbos, Paul (1982). "Applications of advances in nonlinear sensitivity analysis" (PDF). System modeling and optimization. Springer. pp. 762–770.
http://werbos.com/Neural/SensitivityIFI ... er1981.pdf
但是Hinton他们的文章里根本没有引用:
Rumelhart; Hinton; Williams (1986). "Learning representations by back-propagating errors" (PDF). Nature. 323 (6088): 533–536.
http://www.cs.toronto.edu/~hinton/absps/naturebp.pdf
ChatGPT是这么说的:
Paul Werbos (1974) is credited with formally introducing the backpropagation algorithm in his PhD thesis.
David Rumelhart, Geoffrey Hinton, and Ronald Williams (1986) popularized the method, demonstrating its practical utility in training neural networks.
Hinton的back-propagating算法涉嫌剽窃
版主: verdelite, TheMatrix
#2 Re: Hinton的back-propagating算法涉嫌剽窃
back-propagating早在70年代的CT图像重建就用到了,显然不是最近才有的
FoxMe 写了: 2024年 10月 20日 17:27 https://en.wikipedia.org/wiki/Backpropa ... ropagation
根据维基百科,back-propagating算法是这篇文章提出的:
Werbos, Paul (1982). "Applications of advances in nonlinear sensitivity analysis" (PDF). System modeling and optimization. Springer. pp. 762–770.
http://werbos.com/Neural/SensitivityIFI ... er1981.pdf
但是Hinton他们的文章里根本没有引用:
Rumelhart; Hinton; Williams (1986). "Learning representations by back-propagating errors" (PDF). Nature. 323 (6088): 533–536.
http://www.cs.toronto.edu/~hinton/absps/naturebp.pdf
ChatGPT是这么说的:
Paul Werbos (1974) is credited with formally introducing the backpropagation algorithm in his PhD thesis.
David Rumelhart, Geoffrey Hinton, and Ronald Williams (1986) popularized the method, demonstrating its practical utility in training neural networks.
#3 Re: Hinton的back-propagating算法涉嫌剽窃
Werbos的论文被拒稿多次,也许就是这般人审稿的。
我在读研究生的时候也发生过类似的事情。我改进了几个意大利人的工作,结果论文第一轮审稿后被拒了。他们抢发了篇快报(大概两个月之后),和我的结果一模一样。我的论文后来也发表了,但是时间比他们晚。明明是他们剽窃我的工作,变成了他们先发表出来。
我在读研究生的时候也发生过类似的事情。我改进了几个意大利人的工作,结果论文第一轮审稿后被拒了。他们抢发了篇快报(大概两个月之后),和我的结果一模一样。我的论文后来也发表了,但是时间比他们晚。明明是他们剽窃我的工作,变成了他们先发表出来。
#4 Re: Hinton的back-propagating算法涉嫌剽窃
这种事情很多。
这也是为啥我不搞学术了。有那功夫争那三瓜两枣,不如自己干个公司。
这也是为啥我不搞学术了。有那功夫争那三瓜两枣,不如自己干个公司。
FoxMe 写了: 2024年 10月 20日 17:38 Werbos的论文被拒稿多次,也许就是这般人审稿的。
我在读研究生的时候也发生过类似的事情。我改进了几个意大利人的工作,结果论文第一轮审稿后被拒了。他们抢发了篇快报(大概两个月之后),和我的结果一模一样。我的论文后来也发表了,但是时间比他们晚。明明是他们剽窃我的工作,变成了他们先发表出来。
x1

-
- 论坛元老
Caravel 的博客 - 帖子互动: 689
- 帖子: 27219
- 注册时间: 2022年 7月 24日 17:21
#5 Re: Hinton的back-propagating算法涉嫌剽窃
一位是甘利俊一(Shunichi Amari)。1967年,他提出了“随机梯度下降法”(Stochasti Gradient Descent,简称SGD)。这个方法每次在训练数据集上选择一个样本或者一小批样本进行模型训练,通过对损失函数计算梯度,按照负梯度方向对模型参数进行更新。这一方法的提出,为破解神经网络的调参问题提供了有力的思路。多年以后,辛顿(Geoffrey Hinton)提出了“反向传播算法”(Backpropagation)来训练模型,而其最初的灵感就是来自SGD。
#6 Re: Hinton的back-propagating算法涉嫌剽窃
所以劳伦斯理佛猫国家实验室的物理学家发明了伟大的arxiv,FoxMe 写了: 2024年 10月 20日 17:38 Werbos的论文被拒稿多次,也许就是这般人审稿的。
我在读研究生的时候也发生过类似的事情。我改进了几个意大利人的工作,结果论文第一轮审稿后被拒了。他们抢发了篇快报(大概两个月之后),和我的结果一模一样。我的论文后来也发表了,但是时间比他们晚。明明是他们剽窃我的工作,变成了他们先发表出来。
文章先发arxiv再给arxiv的link
这样他们就剽窃不了了