ChatGPT式人工智能是自闭式智能
-
changbaihou
- 见习作家

- 帖子互动: 10
- 帖子: 341
- 注册时间: 2023年 10月 17日 21:48
#2 Re: ChatGPT式人工智能是自闭式智能
这个比喻很恰当。牛河梁 写了: 2023年 10月 24日 22:53 特点是训练量非常大。是一种一开始就说复杂语言的过程。和大多数人从简单单词简单概念少量学习样本就能开始处理简单问题不一样。
这种情况在人类也有。需要大量的漫长的训练,但一开口就成章。这种就是自闭症患者。
-
TheMatrix
- 论坛元老

2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 293
- 帖子: 13894
- 注册时间: 2022年 7月 26日 00:35
#3 Re: ChatGPT式人工智能是自闭式智能
有道理。牛河梁 写了: 2023年 10月 24日 22:53 特点是训练量非常大。是一种一开始就说复杂语言的过程。和大多数人从简单单词简单概念少量学习样本就能开始处理简单问题不一样。
这种情况在人类也有。需要大量的漫长的训练,但一开口就成章。这种就是自闭症患者。
缺乏成长,以及DNA。
#7 Re: ChatGPT式人工智能是自闭式智能
自然选择。会有人被选择掉。未来文明的人类,都是AI大腿抱得紧的后代。就像当年天顶星殷商驾车持锡青铜兵器殖民中国一样。cozofxx 写了: 2023年 10月 27日 23:07 目前的AI是在人类控制下的计算资源的整合。未来,必然有一天人类要开始AGI的征程,把智慧的薪火传给可以更广泛探索宇宙的载体。这个大致也是人类文明的一个主要任务,我估计。
#11 Re: ChatGPT式人工智能是自闭式智能
实数应该是人类设定出来的一种局域的数学方便。宇宙当中,大致是既没有无穷大也没有无穷小。。。所以量子AI这玩意儿应该没戏。不过
基本原则就是稳定地flip一个bit所需的能量是一种文明的硬性标志,因此基于spin或者更小尺寸的informaiton manipulation依然有很高的计算意义和现实意义。
-
pseudo(small man)
- 论坛点评

pseudo 的博客 - 帖子互动: 153
- 帖子: 2745
- 注册时间: 2022年 7月 28日 10:04
#12 Re: ChatGPT式人工智能是自闭式智能
自闭症有传染性吗?我能看到,将来的人类都只和chatgpt这样的自闭症患者交流,表面看起来有新的信息注入,但其实是自循环,最终人类社会都变成了一个完全的自闭症社会。牛河梁 写了: 2023年 10月 24日 22:53 特点是训练量非常大。是一种一开始就说复杂语言的过程。和大多数人从简单单词简单概念少量学习样本就能开始处理简单问题不一样。
这种情况在人类也有。需要大量的漫长的训练,但一开口就成章。这种就是自闭症患者。
这真是一个可怕的远景。
#13 Re: ChatGPT式人工智能是自闭式智能
首先,自闭和自闭不一样。自闭是个筐,啥都往里装。如果只讨论自闭语迟,那么自闭应该不是遗传的,也没有理由认为是传染的,而应该是随机的。当然,貌似随机之下有没有隐变量,如可传染因素,另说。
以人工神经网来看,其实最重要的不是堆数据,而是系统设计,也就是其架构(有多少层,每层多少节点)、初始权重及引入的噪音。
噪音能有效防止overfit。但表现出来就是学习迟缓。噪音低的一开始学习可能掌握表现得更快,但很容易overfit。少时了了大未必佳。
自闭娃的初始大脑神经元连接可能太多。因此难以用少量样本训练。等于巨量参数的模型,必须用大量数据去训练才能开始工作。但大模型的潜力不是果蝇脑袋可以比的。
以人工神经网来看,其实最重要的不是堆数据,而是系统设计,也就是其架构(有多少层,每层多少节点)、初始权重及引入的噪音。
噪音能有效防止overfit。但表现出来就是学习迟缓。噪音低的一开始学习可能掌握表现得更快,但很容易overfit。少时了了大未必佳。
自闭娃的初始大脑神经元连接可能太多。因此难以用少量样本训练。等于巨量参数的模型,必须用大量数据去训练才能开始工作。但大模型的潜力不是果蝇脑袋可以比的。
pseudo 写了: 2023年 11月 3日 01:28 自闭症有传染性吗?我能看到,将来的人类都只和chatgpt这样的自闭症患者交流,表面看起来有新的信息注入,但其实是自循环,最终人类社会都变成了一个完全的自闭症社会。
这真是一个可怕的远景。
#14 Re: ChatGPT式人工智能是自闭式智能
能拟合出来个结果主要还是和在一定误差范围内,函数是大致平底的有关。如果尖底太多,就怎么都不行。
牛河梁 写了: 2023年 11月 3日 19:44 首先,自闭和自闭不一样。自闭是个筐,啥都往里装。如果只讨论自闭语迟,那么自闭应该不是遗传的,也没有理由认为是传染的,而应该是随机的。当然,貌似随机之下有没有隐变量,如可传染因素,另说。
以人工神经网来看,其实最重要的不是堆数据,而是系统设计,也就是其架构(有多少层,每层多少节点)、初始权重及引入的噪音。
噪音能有效防止overfit。但表现出来就是学习迟缓。噪音低的一开始学习可能掌握表现得更快,但很容易overfit。少时了了大未必佳。
自闭娃的初始大脑神经元连接可能太多。因此难以用少量样本训练。等于巨量参数的模型,必须用大量数据去训练才能开始工作。但大模型的潜力不是果蝇脑袋可以比的。

