#1 我这个AI和物理双料民科,来说神经网络和物理没啥关系
发表于 : 2024年 10月 9日 10:44
和生物倒是有关系,可以说,是学习的动物神经网络。和物理没啥关系。什么玻尔兹曼,什么泊松,没这些玩意儿也有神经网络,而且神经网络和卷积也没关系。神经网络里面真正有用的是抽象,多对少的传播,就是抽象。卷积只是用电脑来模拟神经网络时候,为了让CPU能算(时分复用),弄的个结构。
这个物理奖发得。。。属于蹭热点。
这个物理奖发得。。。属于蹭热点。
verdelite 写了: 2024年 10月 9日 10:44 和生物倒是有关系,可以说,是学习的动物神经网络。和物理没啥关系。什么玻尔兹曼,什么泊松,没这些玩意儿也有神经网络,而且神经网络和卷积也没关系。神经网络里面真正有用的是抽象,多对少的传播,就是抽象。卷积只是用电脑来模拟神经网络时候,为了让CPU能算(时分复用),弄的个结构。
这个物理奖发得。。。属于蹭热点。
物理学家和统计学家搞AI属于蹭热度。没这些东西的话神经网络仍然能成功。属于那个“小无相功”的讨论。AI 成功要点有:1,生物仿生得到的初期三层神经网络,+人发明的反向传播算法;2 计算机算力发展; 3 在前面两个基础上发展出来的多层神经网络。弃婴千枝 写了: 2024年 10月 9日 11:26 hopfield网络给每个节点上赋予了一个spin=1的粒子(+1,-1状态)---模仿ising模型中“spin=1/2的电子”,
hopfield神经网络上信号只能在邻近节点传播------------------------模仿ising模型中自旋的adjacent相互作用
剩下的你需要找本统计物理课本读读---------当然你这个民科认为大脑tiny小,不能看这种书,我就不多说了
比如pathria statistical mechanics
首先spin的光子(另:光子不存在)或者电子就不物理。弃婴千枝 写了: 2024年 10月 9日 11:26 hopfield网络给每个节点上赋予了一个spin=1的粒子(+1,-1状态)---模仿ising模型中“spin=1/2的电子”,
hopfield神经网络上信号只能在邻近节点传播------------------------模仿ising模型中自旋的adjacent相互作用
剩下的你需要找本统计物理课本读读---------当然你这个民科认为大脑tiny小,不能看这种书,我就不多说了
比如pathria statistical mechanics
因为3层-----3d ising model,已知有严格解析解,而且已知能相变,超过3维,你自己去看吧verdelite 写了: 2024年 10月 9日 11:35 物理学家和统计学家搞AI属于蹭热度。没这些东西的话神经网络仍然能成功。属于那个“小无相功”的讨论。AI 成功要点有:1,生物仿生得到的初期三层神经网络,+人发明的反向传播算法;2 计算机算力发展; 3 在前面两个基础上发展出来的多层神经网络。
没物理数学什么事。特别是没物理什么事。数学可以来研究收敛速度,稳定性之类问题,例如类似大脑里面癫痫这类现象就是神经网络出了收敛问题。
怎么不物理了?
原子里面还有电子的公转呢。这作为磁性起源不行吗?电子自旋个屁,电子根本就不自旋。古人还会问电子自旋那么表面要超光速呢。后来人只能扫到地毯下假装没这个问题。弃婴千枝 写了: 2024年 10月 9日 12:19 怎么不物理了?
这是企图描述固体的磁性,磁性起源于电子自旋你知道不?
你妈的,那你用你物理的理论说说磁性咋回事?
你这个大师一声不吭,你让我们怎么办吖?只能相信量子力学是正确的了
连数学都不是,更谈不上科学。verdelite 写了: 2024年 10月 9日 10:44 和生物倒是有关系,可以说,是学习的动物神经网络。和物理没啥关系。什么玻尔兹曼,什么泊松,没这些玩意儿也有神经网络,而且神经网络和卷积也没关系。神经网络里面真正有用的是抽象,多对少的传播,就是抽象。卷积只是用电脑来模拟神经网络时候,为了让CPU能算(时分复用),弄的个结构。
这个物理奖发得。。。属于蹭热点。
AI本质上more is different,一定要上一定的数量,少量的没有什么用。verdelite 写了: 2024年 10月 9日 11:35 物理学家和统计学家搞AI属于蹭热度。没这些东西的话神经网络仍然能成功。属于那个“小无相功”的讨论。AI 成功要点有:1,生物仿生得到的初期三层神经网络,+人发明的反向传播算法;2 计算机算力发展; 3 在前面两个基础上发展出来的多层神经网络。
没物理数学什么事。特别是没物理什么事。数学可以来研究收敛速度,稳定性之类问题,例如类似大脑里面癫痫这类现象就是神经网络出了收敛问题。
同意。和数学的关系也不大。我说的是传统数学,微分几何,代数几何这些。和统计学,图论这些有一点关系。但也不是很重要。用了一点而已。因为用了一点而去钻研高深的数学,肯定是错误的。verdelite 写了: 2024年 10月 9日 11:35 物理学家和统计学家搞AI属于蹭热度。没这些东西的话神经网络仍然能成功。属于那个“小无相功”的讨论。AI 成功要点有:1,生物仿生得到的初期三层神经网络,+人发明的反向传播算法;2 计算机算力发展; 3 在前面两个基础上发展出来的多层神经网络。
没物理数学什么事。特别是没物理什么事。数学可以来研究收敛速度,稳定性之类问题,例如类似大脑里面癫痫这类现象就是神经网络出了收敛问题。
verdelite 写了: 2024年 10月 9日 12:48 原子里面还有电子的公转呢。这作为磁性起源不行吗?电子自旋个屁,电子根本就不自旋。古人还会问电子自旋那么表面要超光速呢。后来人只能扫到地毯下假装没这个问题。
你的问题是不懂世人皆傻,所以不知道古人也会犯错误,所以把古人说的都当成真的,就相信电子自旋了。
呵呵
弃婴千枝 写了: 2024年 10月 9日 12:19 怎么不物理了?
这是企图描述固体的磁性,磁性起源于电子自旋你知道不?
你妈的,那你用你物理的理论说说磁性咋回事?
你这个大师一声不吭,你让我们怎么办吖?只能相信量子力学是正确的了
auto feature engineering英亲王阿齐格 写了: 2024年 10月 9日 15:39 神经网络属于方法论的范畴
本身相当于微积分类似的突破
微积分开启了还原论的研究方法
神经网络以后就是整体论的研究方法
人也别费劲在整体论方向找规律了,人脑的能力不够。只能求助计算机 来玩整体论的方法。
verdelite 写了: 2024年 10月 9日 11:35 物理学家和统计学家搞AI属于蹭热度。没这些东西的话神经网络仍然能成功。属于那个“小无相功”的讨论。AI 成功要点有:1,生物仿生得到的初期三层神经网络,+人发明的反向传播算法;2 计算机算力发展; 3 在前面两个基础上发展出来的多层神经网络。
没物理数学什么事。特别是没物理什么事。数学可以来研究收敛速度,稳定性之类问题,例如类似大脑里面癫痫这类现象就是神经网络出了收敛问题。
OPQ 写了: 2024年 10月 9日 16:53 学科与学科之间有交叉重叠,有逻辑关系,也互相借鉴,
但大体的边界线还是存在的。
比方说,你不能用量子电动力学来解释股票市场的发展方向。
人工智能严格来讲还是属于脑科学,
其终极目标是达到人类智慧水平。
人类智慧是大自然几十亿年演化的产物,精巧无比,并且耗能极低,难以模仿和复现。
总之,人工智能大体上属于生物运动这个级别,
等到人工智能真正实现的时候,我们会发现,
它不是化学,不是物理,也不是数学,
它就是人工智能。
话说回来,如果你有一把锤子,那么你看什么都像钉子。
所以数学家看着人工智能像数学,
物理学家看着人工智能像物理,我也能理解。