AI的下一步,应该是去掉back propagation

STEM版,合并数学,物理,化学,科学,工程,机械。不包括生物、医学相关,和计算机相关内容。

版主: verdeliteTheMatrix

头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#1 AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

用feedback来替代back propagation。

标签/Tags:
FoxMe(令狐)
论坛精英
论坛精英
帖子互动: 154
帖子: 5528
注册时间: 2022年 7月 26日 16:46

#2 Re: AI的下一步,应该是去掉back propagation

帖子 FoxMe(令狐) »

有啥区别?
TheMatrix 写了: 2024年 12月 29日 14:05 用feedback来替代back propagation。
头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#3 Re: AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

FoxMe 写了: 2024年 12月 29日 14:49 有啥区别?
back propagation是原路返回,feedback是加一条feedback路径。
wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 728
帖子: 7409
注册时间: 2022年 7月 23日 22:13

#4 Re: AI的下一步,应该是去掉back propagation

帖子 wass »

TheMatrix 写了: 2024年 12月 29日 14:05 用feedback来替代back propagation。
feedback是指rl吗?

bp是underline mechanism

llm pre training是天量weak natural label

rl是少量strong manual label
wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 728
帖子: 7409
注册时间: 2022年 7月 23日 22:13

#5 Re: AI的下一步,应该是去掉back propagation

帖子 wass »

bp是一切dl的基础,不可能by pass
头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#6 Re: AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

wass 写了: 2024年 12月 29日 15:01 feedback是指rl吗?

bp是underline mechanism

llm pre training是天量weak natural label

rl是少量strong manual label
feedback到底应该是啥,现在我也不知道。
头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#7 Re: AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

wass 写了: 2024年 12月 29日 15:02 bp是一切dl的基础,不可能by pass
对。所以这是大改。
wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 728
帖子: 7409
注册时间: 2022年 7月 23日 22:13

#8 Re: AI的下一步,应该是去掉back propagation

帖子 wass »

TheMatrix 写了: 2024年 12月 29日 15:10 对。所以这是大改。
有链接吗?
caudillo
正式写手
正式写手
帖子互动: 20
帖子: 185
注册时间: 2023年 6月 28日 11:51

#9 Re: AI的下一步,应该是去掉back propagation

帖子 caudillo »

TheMatrix 写了: 2024年 12月 29日 14:05 用feedback来替代back propagation。
Lstm
头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#10 Re: AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

wass 写了: 2024年 12月 29日 19:06有链接吗?
没有。
Fnhdx
论坛点评
论坛点评
帖子互动: 158
帖子: 2429
注册时间: 2022年 8月 31日 21:40

#11 Re: AI的下一步,应该是去掉back propagation

帖子 Fnhdx »

Lstm和feedback有什么联系?给讲讲
caudillo 写了: 2024年 12月 29日 19:09Lstm
头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#12 Re: AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

caudillo 写了: 2024年 12月 29日 19:09Lstm
lstm可能有那么点意思,但是可能还是差得比较远。

feedback到底应该什么样我也不知道,但是大方向上,它肯定是要接一根线返回的。而且不是返回前面一层,那太近了。要接一根线返回到前面很远的一层。
libaliu(里八六)
著名写手
著名写手
帖子互动: 16
帖子: 250
注册时间: 2022年 12月 29日 16:48

#13 Re: AI的下一步,应该是去掉back propagation

帖子 libaliu(里八六) »

传统的控制系统feedback直接到输入,比如PID控制,由于已经知道显式的方程式,可以直接计算出需要调节的参数。而AI model IO之间没有显式的表达式,但是每一单层却知道自己的IO方程式,所以只有从最后一层开始向前一层feedback,一层一层逐次调节输入(求导)。所以AI model实际上是有feedback的。
头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#14 Re: AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

libaliu 写了: 2024年 12月 30日 11:55 传统的控制系统feedback直接到输入,比如PID控制,由于已经知道显式的方程式,可以直接计算出需要调节的参数。而AI model IO之间没有显式的表达式,但是每一单层却知道自己的IO方程式,所以只有从最后一层开始向前一层feedback,一层一层逐次调节输入(求导)。所以AI model实际上是有feedback的。
你说的就是back propagation。

AI下一步,应该是去掉back propagation,换成feedback。肯定要不一样。

至于feedback应该是啥样,我也不知道。
xiaotuzi(那年那只小兔子-那兔)
见习点评
见习点评
帖子互动: 48
帖子: 1735
注册时间: 2022年 7月 24日 01:09

#15 Re: AI的下一步,应该是去掉back propagation

帖子 xiaotuzi(那年那只小兔子-那兔) »

你们是不是高估了搞ai的数学水平了?
bp 对积分都整不明白的来说 是比较直观和能理解的
鎏閖荏葭
wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 728
帖子: 7409
注册时间: 2022年 7月 23日 22:13

#16 Re: AI的下一步,应该是去掉back propagation

帖子 wass »

TheMatrix 写了: 2024年 12月 30日 12:35 你说的就是back propagation。

AI下一步,应该是去掉back propagation,换成feedback。肯定要不一样。

至于feedback应该是啥样,我也不知道。
可能性不大

找到更好的activation function也可能
头像
verdelite
论坛元老
论坛元老
帖子互动: 994
帖子: 23843
注册时间: 2022年 7月 21日 23:33

#17 Re: AI的下一步,应该是去掉back propagation

帖子 verdelite »

我却知道该走哪一步。。。等我完成2025的物理论文再来搞AI。
eflame99
正式写手
正式写手
帖子互动: 35
帖子: 188
注册时间: 2024年 10月 6日 09:25

#18 Re: AI的下一步,应该是去掉back propagation

帖子 eflame99 »

TheMatrix 写了: 2024年 12月 29日 14:56 back propagation是原路返回,feedback是加一条feedback路径。
听上去象residual network,用来解决vanishing gradients,仍然是back propagation。你想解决什么问题?是gradient descent不efficient还是vanishing gradients?
头像
TheMatrix楼主
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 266
帖子: 13431
注册时间: 2022年 7月 26日 00:35

#19 Re: AI的下一步,应该是去掉back propagation

帖子 TheMatrix楼主 »

eflame99 写了: 2024年 12月 30日 23:44 听上去象residual network,用来解决vanishing gradients,仍然是back propagation。你想解决什么问题?是gradient descent不efficient还是vanishing gradients?
这是好问题。

我不是想解决vanishing gradient,我是想整个去掉gradient descent,也就是整个去掉back propagation。把它换成feedback路径。

为什么想去掉back propagation呢?有几个原因:
1,自然界生物的神经系统就没有back propagation。
2,back propagation是速度的障碍。
3,back propagation只能在很小的局部找最优解。

feedback路径是什么样呢?我也不清楚。但是大模样应该是:输出层通过一条feedback路径回到输入层,这个路径要跨比较远的两层,而不是只回到前一层。没有back propagation,因为这是物理通路,而不是计算通路。
eflame99
正式写手
正式写手
帖子互动: 35
帖子: 188
注册时间: 2024年 10月 6日 09:25

#20 Re: AI的下一步,应该是去掉back propagation

帖子 eflame99 »

TheMatrix 写了: 2024年 12月 31日 10:05 这是好问题。

我不是想解决vanishing gradient,我是想整个去掉gradient descent,也就是整个去掉back propagation。把它换成feedback路径。

为什么想去掉back propagation呢?有几个原因:
1,自然界生物的神经系统就没有back propagation。
2,back propagation是速度的障碍。
3,back propagation只能在很小的局部找最优解。

feedback路径是什么样呢?我也不清楚。但是大模样应该是:输出层通过一条feedback路径回到输入层,这个路径要跨比较远的两层,而不是只回到前一层。没有back propagation,因为这是物理通路,而不是计算通路。
人类的学习发生在多个不同层面,在低层的神经网络有类似于back propagation的机制,例如反复使用可以促使邻近的神经元连接增强。最近大模型也涌现了一些类似于人类高级学习的能力比如in context learning 和 chain of thought,这些都不需要back propagation。

另外back propagation不能和gradient descent混为一谈。back propagation 是由neural network topology决定的,也可以很快。你说的局限主要是gradient descent。生物神经系统显然不使用gradient descent。
回复

回到 “STEM”