大家说说,Machine Learning学啥?
版主: verdelite, TheMatrix
#1 大家说说,Machine Learning学啥?
Machine Learning学啥?假如的确有遗世独立不依赖于人的世界和人构造的世界(意识),学的是前者还是后者?显然是后者,后者又有真假对错,又怎么能保证现在喂给ML的数据与其中的关系没有真假对错?既然是企图复制人类的意识,那么构造所谓世界模型,也是暂时的,为减轻人的工作量而已,说到创新或者突破,恐怕就是痴人说梦了。
#3 Re: 大家说说,Machine Learning学啥?
学的是事物的概率forecasting 写了: 2024年 11月 1日 23:39 Machine Learning学啥?假如的确有遗世独立不依赖于人的世界和人构造的世界(意识),学的是前者还是后者?显然是后者,后者又有真假对错,又怎么能保证现在喂给ML的数据与其中的关系没有真假对错?既然是企图复制人类的意识,那么构造所谓世界模型,也是暂时的,为减轻人的工作量而已,说到创新或者突破,恐怕就是痴人说梦了。
-
- 论坛支柱
2024年度优秀版主
Zephyrca 的博客 - 帖子互动: 1294
- 帖子: 11663
- 注册时间: 2022年 8月 12日 22:10
#9 Re: 大家说说,Machine Learning学啥?
这是宣传口号,别当真。 能创新的人什么时候都是少数,大多数人只是要一份能养家糊口的工作。AI取代人的工作是工业革命以来机器取代人的工作的继续。 效率提高了,好处是很多的,但工作越来越少也会是现实。而且这一次的浪潮来势凶猛,很多人恐怕来不及调整自己。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 268
- 帖子: 13443
- 注册时间: 2022年 7月 26日 00:35
#10 Re: 大家说说,Machine Learning学啥?
我觉得不用太担心。人工智能发展的好,UBI来得也快。HighFive 写了: 2024年 11月 2日 17:18 这是宣传口号,别当真。 能创新的人什么时候都是少数,大多数人只是要一份能养家糊口的工作。AI取代人的工作是工业革命以来机器取代人的工作的继续。 效率提高了,好处是很多的,但工作越来越少也会是现实。而且这一次的浪潮来势凶猛,很多人恐怕来不及调整自己。
#13 Re: 大家说说,Machine Learning学啥?
肯定不是,又歪楼了。
转chatGPT的回答:
Machine Learning(ML)学习的是从数据中提取模式、构建关系并预测结果。就您的问题来看,机器学习更贴近“人构造的世界”,因为它依赖于人类提供的数据集、标签和特征构建。然而,这些数据和模型并不直接反映“客观真理”,而是与人类理解相关,且带有人的主观成分和可能的偏差。这带来了两方面的挑战:模型的训练数据是否足够“真实”或“无偏”,以及模型是否能在不偏的情况下做出可靠的预测。
关于“遗世独立”和“人构造”世界
在理论上,“遗世独立的世界”可能指的是一种独立于人类主观意识的客观真理,而“人构造的世界”则是人类通过数据来建构的知识体系。ML模型学习的是后者,因为模型只能从被构造的数据集和预设的特征空间中寻找模式。换句话说,模型是依赖于人类对世界的理解、数据收集方式、算法选择及目标定义的。
数据的真假对错问题
由于数据并非绝对客观,而是人类采集和标注的结果,因此其中可能会存在偏见、噪声和主观判断。即使是看似客观的数据,比如天气数据、金融数据,仍然依赖于传感器、测量方法和数据处理方式。因此,不可能绝对确保数据中的关系“真实无误”,并且模型的预测结果也只能基于已知数据中体现的关系进行,而无法验证是否与“真正的真理”一致。
解决真假对错的问题
ML领域通过以下方式来尽可能减少数据偏差和真假对错带来的问题:
数据清洗和标准化:尽量清理数据中的噪声、异常值等明显错误。
数据多样性:通过广泛的数据来源和采集多维度数据来减少偏见。
无监督或自监督学习:这种方法减少人为标注的主观影响,帮助模型自主探索数据的内在关系。
可解释性:不断开发解释模型预测的工具,帮助揭示模型决策是否合理和偏差。
总结
ML目前依赖的是“人构造的世界”的数据与关系,所以它本身无法解决数据中的真假对错问题,只能通过数据集的多样性、模型的设计和验证方法来尽量减少偏差。不过,从另一个角度看,这种依赖也在推动ML和人类知识的不断进步,通过学习人的知识体系,模型也逐步扩展了人类对世界的理解和认识。
x1

#14 Re: 大家说说,Machine Learning学啥?
祝贺!你以后不怕没有标准答案forecasting 写了: 2024年 11月 3日 12:31 肯定不是,又歪楼了。
转chatGPT的回答:
Machine Learning(ML)学习的是从数据中提取模式、构建关系并预测结果。就您的问题来看,机器学习更贴近“人构造的世界”,因为它依赖于人类提供的数据集、标签和特征构建。然而,这些数据和模型并不直接反映“客观真理”,而是与人类理解相关,且带有人的主观成分和可能的偏差。这带来了两方面的挑战:模型的训练数据是否足够“真实”或“无偏”,以及模型是否能在不偏的情况下做出可靠的预测。
关于“遗世独立”和“人构造”世界
在理论上,“遗世独立的世界”可能指的是一种独立于人类主观意识的客观真理,而“人构造的世界”则是人类通过数据来建构的知识体系。ML模型学习的是后者,因为模型只能从被构造的数据集和预设的特征空间中寻找模式。换句话说,模型是依赖于人类对世界的理解、数据收集方式、算法选择及目标定义的。
数据的真假对错问题
由于数据并非绝对客观,而是人类采集和标注的结果,因此其中可能会存在偏见、噪声和主观判断。即使是看似客观的数据,比如天气数据、金融数据,仍然依赖于传感器、测量方法和数据处理方式。因此,不可能绝对确保数据中的关系“真实无误”,并且模型的预测结果也只能基于已知数据中体现的关系进行,而无法验证是否与“真正的真理”一致。
解决真假对错的问题
ML领域通过以下方式来尽可能减少数据偏差和真假对错带来的问题:
数据清洗和标准化:尽量清理数据中的噪声、异常值等明显错误。
数据多样性:通过广泛的数据来源和采集多维度数据来减少偏见。
无监督或自监督学习:这种方法减少人为标注的主观影响,帮助模型自主探索数据的内在关系。
可解释性:不断开发解释模型预测的工具,帮助揭示模型决策是否合理和偏差。
总结
ML目前依赖的是“人构造的世界”的数据与关系,所以它本身无法解决数据中的真假对错问题,只能通过数据集的多样性、模型的设计和验证方法来尽量减少偏差。不过,从另一个角度看,这种依赖也在推动ML和人类知识的不断进步,通过学习人的知识体系,模型也逐步扩展了人类对世界的理解和认识。