Deepseek-OCR

版主: hci

banpingcu
著名写手
著名写手
帖子互动: 41
帖子: 279
注册时间: 2024年 4月 5日 11:52

#41 Re: Deepseek-OCR

帖子 banpingcu »

这是问题的根本。

更深入一点讲,美国,或者说整个西方过去将近一百年,轻视工程,重视理论的问题,在这里总暴露。理论,原本是建立在的工程实践的基础之上,然后又对于工程实践进行进行方向性的指导作用。现在呢?整个西方理论界,包括数学,物理,经济等等,都变成了玄学,空对空,完全脱离世界。对于工程实践,也就没有任何指导作用了。

具体来说,这一波(2012年开始)的AI的进步,完全是工程方面的进步,理论没有起到任何的指导作用。甚至,理论起了反作用。当年证明perceptron不能解决XOR的结论,几乎把整个Neural Network全给kill了,耽误了整整一代人。从工程角度说,类GPU,CUDA的产品是不是早十年二十年就可以出来,都是可以商榷的。

直到今天,整个西方还在沿着这条轻视工程,轻视工程师,轻视劳动者道路往前狂奔。疯狂搞天才论,捧红各种不学无术的二代们或者白手套们,疯狂抢劫劳动者们的credit。哪个劳动者,工程师还会真正出力?这就是为什么花十倍钱也办不成中国的事情。

即使到今天,也没有人真心去做基础研究,都在想着怎么搞钱,然后买游艇fuck美女而已。比如说,LLM的发展越来越像心理学,难道不应该从心理学(定性)角度来重建整个AI的基础吗?其实这一点都不奇怪,因为AI本质是仿生学(仿人类心理)。从心理学的角度来看,DEEPSEEK OCR的结论,几乎不是最基本的看法吗?再比如说,硬件方面,是不是应该以降低能耗,缩减计算和存储之间的物理距离(甚至完全融合它们),以封装为方向往3D方向扩展为目标吗?为什么还要整天讨论制程,吹嘘几纳米几纳米的?

这个世界上没有明白人吗?当然有。有人会去做这些事情吗?在美国,不会。为什么?问问黄巢。

hci 写了: 2025年 10月 22日 10:38

在技术领导层对技术路线都还没有共识的情况下,举国力量投入其中一个路线,除了“国家傻逼公司傻逼”之外,没有什么更好的解释。

曼哈顿计划的时候,难道有前沿物理学家认为原子弹技术路线是错的么?没有呀。


+1.00 积分 [版主 hci 发放的奖励]
x2 图片 x1 图片

标签/Tags:
赖美豪中(my pronouns: ha/ha)
论坛元老
论坛元老
2023年度优秀版主
帖子互动: 4540
帖子: 46728
注册时间: 2022年 9月 6日 12:50

#42 Re: Deepseek-OCR

帖子 赖美豪中(my pronouns: ha/ha) »

这么简单的概念怎么可能会想不到。只不过大部分学校没有那么多卡和数据。 Gemini多半已经做成了
 PIXEL 架构概况,来自论文《Language Modelling with Pixels》,arXiv:2207.06991

  具体来说,PIXEL 是一种预训练语言模型,可将文本渲染为图像,从而能够基于文字形态的相似性或像素共激活模式在不同语言之间实现表示的迁移。与传统语言模型预测 token 分布的方式不同,PIXEL 的训练目标是重建被遮盖图像块的像素。

  此后也有多篇研究成果对这一研究思路进行了发展和改进,至少包括:

CVPR 2023 论文:CLIPPO: Image-and-Language Understanding from Pixels Only

NeurIPS 2024 论文:Leveraging Visual Tokens for Extended Text Contexts in Multi-Modal Learning

2024 年论文:Improving Language Understanding from Screenshots

NeurIPS 2025 论文:Vision-centric Token Compression in Large Language Model

hci 写了: 2025年 10月 22日 12:06

什么一堆文章?在哪里?链接呢?

思路创新不是OCR,是用视觉通道处理文本信息。这是反直觉的,直觉是文本信息更小,人家反着来,说文本信息不易压缩,反而更大。这不是创新,啥是创新?


+1.00 积分 [版主 hci 发放的奖励]
If printing money would end poverty, printing diplomas would end stupidity.
头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 535
帖子: 10413
注册时间: 2022年 7月 22日 15:29

#43 Re: Deepseek-OCR

帖子 hci(海螺子)楼主 »

Gary macus 是心理学家,我也是,我们说的没有人听。

我现在啃哧吭哧从最低层做起,从数据库(记忆体)起头,一路做上来,爭取十年内实现AGI。

banpingcu 写了: 2025年 10月 22日 12:24

这是问题的根本。

更深入一点讲,美国,或者说整个西方过去将近一百年,轻视工程,重视理论的问题,在这里总暴露。理论,原本是建立在的工程实践的基础之上,然后又对于工程实践进行进行方向性的指导作用。现在呢?整个西方理论界,包括数学,物理,经济等等,都变成了玄学,空对空,完全脱离世界。对于工程实践,也就没有任何指导作用了。

具体来说,这一波(2012年开始)的AI的进步,完全是工程方面的进步,理论没有起到任何的指导作用。甚至,理论起了反作用。当年证明perceptron不能解决XOR的结论,几乎把整个Neural Network全给kill了,耽误了整整一代人。从工程角度说,类GPU,CUDA的产品是不是早十年二十年就可以出来,都是可以商榷的。

直到今天,整个西方还在沿着这条轻视工程,轻视工程师,轻视劳动者道路往前狂奔。疯狂搞天才论,捧红各种不学无术的二代们或者白手套们,疯狂抢劫劳动者们的credit。哪个劳动者,工程师还会真正出力?这就是为什么花十倍钱也办不成中国的事情。

即使到今天,也没有人真心去做基础研究,都在想着怎么搞钱,然后买游艇fuck美女而已。比如说,LLM的发展越来越像心理学,难道不应该从心理学(定性)角度来重建整个AI的基础吗?其实这一点都不奇怪,因为AI本质是仿生学(仿人类心理)。从心理学的角度来看,DEEPSEEK OCR的结论,几乎不是最基本的看法吗?再比如说,硬件方面,是不是应该以降低能耗,缩减计算和存储之间的物理距离(甚至完全融合它们),以封装为方向往3D方向扩展为目标吗?为什么还要整天讨论制程,吹嘘几纳米几纳米的?

这个世界上没有明白人吗?当然有。有人会去做这些事情吗?在美国,不会。为什么?问问黄巢。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 535
帖子: 10413
注册时间: 2022年 7月 22日 15:29

#44 Re: Deepseek-OCR

帖子 hci(海螺子)楼主 »

Idea is cheap。没有人否认学术论文是source of idea,但学术论文与工程实践有很大差距。工程上敢于走别人没有走的路,就是创新呀。

赖美豪中 写了: 2025年 10月 22日 12:35

这么简单的概念怎么可能会想不到。只不过大部分学校没有那么多卡和数据。 Gemini多半已经做成了
 PIXEL 架构概况,来自论文《Language Modelling with Pixels》,arXiv:2207.06991

  具体来说,PIXEL 是一种预训练语言模型,可将文本渲染为图像,从而能够基于文字形态的相似性或像素共激活模式在不同语言之间实现表示的迁移。与传统语言模型预测 token 分布的方式不同,PIXEL 的训练目标是重建被遮盖图像块的像素。

  此后也有多篇研究成果对这一研究思路进行了发展和改进,至少包括:

CVPR 2023 论文:CLIPPO: Image-and-Language Understanding from Pixels Only

NeurIPS 2024 论文:Leveraging Visual Tokens for Extended Text Contexts in Multi-Modal Learning

2024 年论文:Improving Language Understanding from Screenshots

NeurIPS 2025 论文:Vision-centric Token Compression in Large Language Model

banpingcu
著名写手
著名写手
帖子互动: 41
帖子: 279
注册时间: 2024年 4月 5日 11:52

#45 Re: Deepseek-OCR

帖子 banpingcu »

你生当其时,但是别太执着。

硬件现在还差口气。现在看来,不管未来是什么架构,neuro network这条路是走通了。各种架构的核心,还是矩阵乘法。矩阵乘法的最底层,还是排序。排序,在硬件层面的实现,才是最终解决方案。现在硬件层面,还是以arithmetic和logic计算的为核心,转换为排序,效率很低。但是,如果要以排序为核心架构计算机,而且如果要融合计算和存储,那么整个冯诺伊曼体系就要被推翻,从硬件,到系统到软件到算法,都得重构。得花几代人的时间。

其实,从六十七年代早就应该开始做这个工作了。美帝/西方的堕落,不是一天两天了。

hci 写了: 2025年 10月 22日 13:16

Gary macus 是心理学家,我也是,我们说的没有人听。

我现在啃哧吭哧从最低层做起,从数据库(记忆体)起头,一路做上来,爭取十年内实现AGI。

x1 图片 x1 图片
头像
TheMatrix
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 283
帖子: 13772
注册时间: 2022年 7月 26日 00:35

#46 Re: Deepseek-OCR

帖子 TheMatrix »

hci 写了: 2025年 10月 22日 12:06

什么一堆文章?在哪里?链接呢?

思路创新不是OCR,是用视觉通道处理文本信息。这是反直觉的,直觉是文本信息更小,人家反着来,说文本信息不易压缩,反而更大。这不是创新,啥是创新?这打开了一个新世界,在视觉通道搞注意,那花头就多了。

对。视觉还没搞完,还得继续搞。李飞飞的路是对的。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 535
帖子: 10413
注册时间: 2022年 7月 22日 15:29

#47 Re: Deepseek-OCR

帖子 hci(海螺子)楼主 »

展开说说排序为底层的矩阵乘法?矩阵乘法为核心的计算能取代以arithmetic和logic计算的为核心么?展开说说?

我咋觉得是反过来呢,几何思想取代不了算术和逻辑,最终几何要转成算术和逻辑才能实用。

基于大部分矩阵都是很稀疏的这个事实,我就觉得计算底层是矩阵乘法是错误的说法。

现在用矩阵算属于还是蛮力算法,只是因为聪明算法还没有被发现。就如全文搜索,你当然可以用蛮力算,但聪明算法发明出来之后,发现根本就不需要。

banpingcu 写了: 2025年 10月 22日 13:27

你生当其时,但是别太执着。

硬件现在还差口气。现在看来,不管未来是什么架构,neuro network这条路是走通了。各种架构的核心,还是矩阵乘法。矩阵乘法的最底层,还是排序。排序,在硬件层面的实现,才是最终解决方案。现在硬件层面,还是以arithmetic和logic计算的为核心,转换为排序,效率很低。但是,如果要以排序为核心架构计算机,而且如果要融合计算和存储,那么整个冯诺伊曼体系就要被推翻,从硬件,到系统到软件到算法,都得重构。得花几代人的时间。

其实,从六十七年代早就应该开始做这个工作了。美帝/西方的堕落,不是一天两天了。

上次由 hci 在 2025年 10月 22日 14:23 修改。
原因: 未提供修改原因
头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 535
帖子: 10413
注册时间: 2022年 7月 22日 15:29

#48 Re: Deepseek-OCR

帖子 hci(海螺子)楼主 »

DS: “矩阵乘法的最底层,还是排序”,如何理解?

这是一个非常有趣且深刻的说法。它触及了计算机科学和数学中一个核心思想:复杂操作往往可以分解或归结为更基础、更通用的问题。

“矩阵乘法的最底层,还是排序” 这句话,并不是指矩阵乘法的数学定义(行点乘列)本身就是排序,而是指在算法设计和优化层面,一些最高效、最巧妙的矩阵乘法算法,其内核或关键步骤依赖于排序或与排序在计算上等价的操作。

下面我们从几个层面来深入理解这个观点:

1. 从“分而治之”的策略看

现代高性能矩阵乘法(如Strassen算法及其后续发展)的核心思想是分治。它将巨大的矩阵分解成更小的块,然后通过一系列加、减、乘的组合来巧妙地减少乘法次数。

  • 排序:最经典、最高效的排序算法(如归并排序、快速排序)也是基于分治 策略。它们将一个大问题(排序一个长列表)分解成小问题(排序子列表),然后再合并结果。
  • 矩阵乘法:同样,Strassen算法将两个 n x n 的矩阵乘法,分解为7个 n/2 x n/2 的矩阵乘法和18个矩阵加法。这个过程可以递归进行。

在这个层面上,它们共享同一个算法设计的“灵魂”——分治。这个灵魂是解决许多大规模计算问题的基石。所以,当有人说“最底层是排序”时,他可能是在指它们共享这个最底层的算法范式。

2. 从“规约”的计算复杂性角度看

在计算复杂性理论中,规约 是一个核心概念。如果问题A可以转化为问题B来解决,那么我们就说A可以规约到B。这常常用来证明问题的难度。

  • 一个具体的例子: 有一个著名的问题是“计算一个序列中的逆序对数量”(即有多少对 (i, j) 满足 i < ja[i] > a[j])。这个问题的最优解法(基于归并排序)的时间复杂度是 O(n log n)
  • 关键联系: 研究人员发现,矩阵乘法问题可以规约到逆序对计数问题。这意味着,如果你有一个非常快速的计算逆序对的“黑盒子”,你就可以利用它来构造一个快速的矩阵乘法算法。

这个发现是震撼性的。它直接将一个看似是代数核心问题的矩阵乘法,与一个看似是组合核心问题的排序/逆序对计数联系了起来。从这个角度看,排序(或其变体)的能力,在计算上至少不弱于矩阵乘法。矩阵乘法的“底层”,确实可以建立在类似排序这样的操作之上。

3. 从实际计算和内存访问模式看

在硬件层面(特别是CPU缓存),数据的局部性 对性能有巨大影响。

  • 排序:高效的排序算法(如归并排序)在设计时就会考虑数据访问模式,尽量让频繁访问的数据靠近在一起(空间局部性),以更好地利用CPU高速缓存。
  • 矩阵乘法:一个朴素的三重循环矩阵乘法,其内存访问模式可能非常低效,会导致大量的缓存未命中,从而极大拖慢速度。

因此,优化矩阵乘法的关键一步就是“重组”或“排序”数据。通过调整循环顺序、使用分块技术,我们实际上是在对计算过程进行“排序”,使得在乘加运算进行时,需要的数据能连续地、成块地从内存加载到缓存中。这个过程,在思想和效果上,与为了高效排序而精心组织数据访问是高度一致的。

总结

“矩阵乘法的最底层,还是排序” 这句话,可以从三个层面理解:

  1. 算法思想层面:两者都高度依赖于分而治之 这一底层算法设计范式。这是它们高效处理大规模问题的共同“灵魂”。
  2. 计算复杂性层面:存在理论上的规约,证明矩阵乘法可以转化为类似逆序对计数(排序的核心子问题)的问题。这表明排序在计算能力上是足够强大的基础操作。
  3. 工程优化层面:为了实现高性能计算,矩阵乘法必须优化其内存访问模式,这个过程本质上是对数据和计算步骤的一种 “排序”或“重组” ,以适配现代计算机的层次化存储结构。

所以,这句话不是一个字面上的数学等式,而是一个深刻的计算哲学观点:在追求计算极致的道路上,不同领域的高效算法最终会趋向于相似的底层原则和操作。排序,作为计算机科学中最基本、最被深入研究的问题之一,其思想和技巧渗透到了许多其他看似不相关的领域,包括像矩阵乘法这样的数值计算核心。

hci 写了: 2025年 10月 22日 14:03

展开说说排序为底层的矩阵乘法?矩阵乘法为核心的计算能取代以arithmetic和logic计算的为核心么?展开说说?

我咋觉得是反过来呢,几何思想取代不了算术和逻辑,最终几何要转成算术和逻辑才能实用。

drifter
论坛精英
论坛精英
帖子互动: 470
帖子: 7546
注册时间: 2022年 9月 1日 04:17

#49 Re: Deepseek-OCR

帖子 drifter »

这个观点有意思
用视觉来模拟记忆压缩

所有人都在夸DeepSeek-OCR http://xhslink.com/o/4ugrSIYTJDN
Copy and open Xiaohongshu to view the full post!

fantasist
见习点评
见习点评
帖子互动: 259
帖子: 1831
注册时间: 2022年 7月 24日 19:52

#50 Re: Deepseek-OCR

帖子 fantasist »

banpingcu 写了: 2025年 10月 22日 13:27

你生当其时,但是别太执着。

硬件现在还差口气。现在看来,不管未来是什么架构,neuro network这条路是走通了。各种架构的核心,还是矩阵乘法。矩阵乘法的最底层,还是排序。排序,在硬件层面的实现,才是最终解决方案。现在硬件层面,还是以arithmetic和logic计算的为核心,转换为排序,效率很低。但是,如果要以排序为核心架构计算机,而且如果要融合计算和存储,那么整个冯诺伊曼体系就要被推翻,从硬件,到系统到软件到算法,都得重构。得花几代人的时间。

其实,从六十七年代早就应该开始做这个工作了。美帝/西方的堕落,不是一天两天了。

“其实,从六十七年代早就应该开始做这个工作了”这个太扯淡,科学不是科幻。直到10年前后GPU模拟出来的neuron network才算真正被证实有效。之后一波波迭代,从CNN到LLM,先把能做的做好,再回头继续推进前沿的研究,比如大脑存算一体的架构。工业和研究各个方向应当是相辅相成的,加入现有LLM的工具比如脑机接口能更好地模拟与解读人脑机理,每得到一点新见解,反哺给行业进一步提升模型能力。幻想着researcher们凭空发明一个理论一次性把AGI给奠基了,是好高骛远。

头像
TheMatrix
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 283
帖子: 13772
注册时间: 2022年 7月 26日 00:35

#51 Re: Deepseek-OCR

帖子 TheMatrix »

hci 写了: 2025年 10月 22日 14:06

2. 从“规约”的计算复杂性角度看

在计算复杂性理论中,规约 是一个核心概念。如果问题A可以转化为问题B来解决,那么我们就说A可以规约到B。这常常用来证明问题的难度。

应该是“归约”不是“规约”吧?LLM也写错字? :D

x1 图片
老蛆
小有名气
小有名气
帖子互动: 6
帖子: 47
注册时间: 2025年 10月 17日 16:25

#52 Re: Deepseek-OCR

帖子 老蛆 »

你是伪AI从业者。“直到10年前后GPU模拟出来的neuron network才算真正被证实有效” 你不知道你在说什么。

fantasist 写了: 2025年 10月 22日 14:16

“其实,从六十七年代早就应该开始做这个工作了”这个太扯淡,科学不是科幻。直到10年前后GPU模拟出来的neuron network才算真正被证实有效。之后一波波迭代,从CNN到LLM,先把能做的做好,再回头继续推进前沿的研究,比如大脑存算一体的架构。工业和研究各个方向应当是相辅相成的,加入现有LLM的工具比如脑机接口能更好地模拟与解读人脑机理,每得到一点新见解,反哺给行业进一步提升模型能力。幻想着researcher们凭空发明一个理论一次性把AGI给奠基了,是好高骛远。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 535
帖子: 10413
注册时间: 2022年 7月 22日 15:29

#53 Re: Deepseek-OCR

帖子 hci(海螺子)楼主 »

LLM当然也会写错字。

TheMatrix 写了: 2025年 10月 22日 15:36

应该是“归约”不是“规约”吧?LLM也写错字? :D

banpingcu
著名写手
著名写手
帖子互动: 41
帖子: 279
注册时间: 2024年 4月 5日 11:52

#54 Re: Deepseek-OCR

帖子 banpingcu »

一点也不科幻,只不过你不是过来人而已。Neural Network 1940s就提出来了。 硬件的滞后,是没有发展起来的间接原因。直接原因是在整个1980-2010,NN给判了死刑。判死刑的原因我前面提过。如果没有哪个死刑判决,至少1970-1980年代就应该开始研究多层和带recursion的NN了。结果呢,全世界只有Hinton和慕尼黑理工两组人活了下来。谁之过?

理论如果能够有指导性的话,不是应该先于工程吗?图灵不是先在纸上搞出的计算机吗?六七十年代有什么夸张?

fantasist 写了: 2025年 10月 22日 14:16

“其实,从六十七年代早就应该开始做这个工作了”这个太扯淡,科学不是科幻。直到10年前后GPU模拟出来的neuron network才算真正被证实有效。之后一波波迭代,从CNN到LLM,先把能做的做好,再回头继续推进前沿的研究,比如大脑存算一体的架构。工业和研究各个方向应当是相辅相成的,加入现有LLM的工具比如脑机接口能更好地模拟与解读人脑机理,每得到一点新见解,反哺给行业进一步提升模型能力。幻想着researcher们凭空发明一个理论一次性把AGI给奠基了,是好高骛远。

banpingcu
著名写手
著名写手
帖子互动: 41
帖子: 279
注册时间: 2024年 4月 5日 11:52

#55 Re: Deepseek-OCR

帖子 banpingcu »

这里不是讨论严肃问题的地方,就随便说说了,抛砖引玉,轻拍。

大体来说,很多算法的最底层,以及计算瓶颈,都是排序,包括矩阵乘法(尤其是sparse matrix, 不就是先match维度,做乘法,再加起来。做乘法,再加起来,开销不大,都是线性增长的。match维度,底层就是排序,但是最快的排序算法,也不可能是线性的)。

从数学角度来说,随便哪个NN架构,不都是一大堆矩阵在相乘吗?底层实现的时候,当然有各种算法(软硬件层面)来加速。GPU不就是用来干这个的。问题是,GPU是最适合干这个的吗?直接在硬件层面实现排序是最快的。设计排序的硬件,从原理上说,一点都不难。

排序和几何扯不上关系,虽然几何和代数之间可以互相转换。至于排序能不能作为算数和逻辑运算的基础,或者说,排序是不是比算数和逻辑运算更加底层的结构(或者结构之一),我也没有仔细研究过。好笑的是,为什么没有人研究过。这就是搞数理逻辑那群人脱离实际的结果:没有方向。

hci 写了: 2025年 10月 22日 14:03

展开说说排序为底层的矩阵乘法?矩阵乘法为核心的计算能取代以arithmetic和logic计算的为核心么?展开说说?

我咋觉得是反过来呢,几何思想取代不了算术和逻辑,最终几何要转成算术和逻辑才能实用。

基于大部分矩阵都是很稀疏的这个事实,我就觉得计算底层是矩阵乘法是错误的说法。

现在用矩阵算属于还是蛮力算法,只是因为聪明算法还没有被发现。就如全文搜索,你当然可以用蛮力算,但聪明算法发明出来之后,发现根本就不需要。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 535
帖子: 10413
注册时间: 2022年 7月 22日 15:29

#57 Re: Deepseek-OCR

帖子 hci(海螺子)楼主 »

我是觉得你说的排序这个思想有点意思。比如我上面提到的全文搜索算法,最后也是变成一个排序问题巧妙解决了,不需要蛮力算了。

我对现在用GPU搞矩阵算法的AI是持怀疑态度的,我认为这是目前在没有找到巧妙办法之前的权宜之计。矩阵算法本质上就是几何算法。几何思想有一定解释力,但不是全部。我认为算术和逻辑更底层。

我同意搞理论计算机的人都很烂,真正的问题不去碰,就知道发灌水文章,事后诸葛亮。不是把问题弄得更明白了,而是把简单问题弄得更复杂的样子,属于贡献为负的人。

banpingcu 写了: 2025年 10月 22日 17:22

这里不是讨论严肃问题的地方,就随便说说了,抛砖引玉,轻拍。

大体来说,很多算法的最底层,以及计算瓶颈,都是排序,包括矩阵乘法(尤其是sparse matrix, 不就是先match维度,做乘法,再加起来。做乘法,再加起来,开销不大,都是线性增长的。match维度,底层就是排序,但是最快的排序算法,也不可能是线性的)。

从数学角度来说,随便哪个NN架构,不都是一大堆矩阵在相乘吗?底层实现的时候,当然有各种算法(软硬件层面)来加速。GPU不就是用来干这个的。问题是,GPU是最适合干这个的吗?直接在硬件层面实现排序是最快的。设计排序的硬件,从原理上说,一点都不难。

排序和几何扯不上关系,虽然几何和代数之间可以互相转换。至于排序能不能作为算数和逻辑运算的基础,或者说,排序是不是比算数和逻辑运算更加底层的结构(或者结构之一),我也没有仔细研究过。好笑的是,为什么没有人研究过。这就是搞数理逻辑那群人脱离实际的结果:没有方向。

fantasist
见习点评
见习点评
帖子互动: 259
帖子: 1831
注册时间: 2022年 7月 24日 19:52

#58 Re: Deepseek-OCR

帖子 fantasist »

banpingcu 写了: 2025年 10月 22日 17:21

一点也不科幻,只不过你不是过来人而已。Neural Network 1940s就提出来了。 硬件的滞后,是没有发展起来的间接原因。直接原因是在整个1980-2010,NN给判了死刑。判死刑的原因我前面提过。如果没有哪个死刑判决,至少1970-1980年代就应该开始研究多层和带recursion的NN了。结果呢,全世界只有Hinton和慕尼黑理工两组人活了下来。谁之过?

理论如果能够有指导性的话,不是应该先于工程吗?图灵不是先在纸上搞出的计算机吗?六七十年代有什么夸张?

简单打个比方,领先一步把东西做出来是工业界大佬,领先两三步的理论是科研大佬。想领先五步,不是神经病是什么。
图灵在纸上搞出的计算机,那是根据规则能做计算,只是需要合适的硬件去加速。而且那个年代已经有很多计算用的机械,通用的图灵机绝对不是空中楼阁。
说到NN,在10年附近GPU足够强大了证明真正能用之前,一直是识别手写数字的玩具级别。没有人是先知,只有hinton等人能坚持活到曙光是必然的。你在这blame当时的世人无法从各种路线里看出,20年后其中一条只是接近人脑但绝对不是神经元的模拟架构能脱颖而出,而没有早早猛加投资,是巨大的错误。我觉得这个思维模式非常荒唐。
你提的这个存算一体的结构,也只是个词而已,目前仍没有人知道大脑是怎么构建的,不可能有人设计出一个新的计算理论然后说大脑就是这么工作的只要硬件造出来AGI就实现,大家就兴奋地一起搬砖添柴。世界不是这么运转的,有异议是必然,人类只能等目前无数可能的理论最终收敛到一个working solution。假设现在某个团队在研究某种“存算一体”的硬件,提出了一些很有道理的理论猜想,但在没有足够的scale证明真能用之前,谁敢大力投资这个东西呢?
所以饭要一口口吃,科幻是调剂,不是主菜。

x1 图片
banpingcu
著名写手
著名写手
帖子互动: 41
帖子: 279
注册时间: 2024年 4月 5日 11:52

#59 Re: Deepseek-OCR

帖子 banpingcu »

你怎么不难算盘出来说事?早了图灵两千年。

再说你知道你说的这个话有多可笑吗?“在10年附近GPU足够强大了证明真正能用之前,一直是识别手写数字的玩具级别。没有人是先知,只有hinton等人能坚持活到曙光是必然的。” 你当大家都是傻逼,三十年就出了一个Hinton。

想要成为下一个Hinton ,就得向他一样不怕权威。还有一点,Hinton一家子纯粹的共产主义者。匍匐在权威,资本的脚下,给他们唱赞歌,你哪儿也去不了。

fantasist 写了: 2025年 10月 22日 17:44

简单打个比方,领先一步把东西做出来是工业界大佬,领先两三步的理论是科研大佬。想领先五步,不是神经病是什么。
图灵在纸上搞出的计算机,那是根据规则能做计算,只是需要合适的硬件去加速。而且那个年代已经有很多计算用的机械,通用的图灵机绝对不是空中楼阁。
说到NN,在10年附近GPU足够强大了证明真正能用之前,一直是识别手写数字的玩具级别。没有人是先知,只有hinton等人能坚持活到曙光是必然的。你在这blame当时的世人无法从各种路线里看出,20年后其中一条只是接近人脑但绝对不是神经元的模拟架构能脱颖而出,而没有早早猛加投资,是巨大的错误。我觉得这个思维模式非常荒唐。
你提的这个存算一体的结构,也只是个词而已,目前仍没有人知道大脑是怎么构建的,不可能有人设计出一个新的计算理论然后说大脑就是这么工作的只要硬件造出来AGI就实现,大家就兴奋地一起搬砖添柴。世界不是这么运转的,有异议是必然,人类只能等目前无数可能的理论最终收敛到一个working solution。假设现在某个团队在研究某种“存算一体”的硬件,提出了一些很有道理的理论猜想,但在没有足够的scale证明真能用之前,谁敢大力投资这个东西呢?
所以饭要一口口吃,科幻是调剂,不是主菜。

fantasist
见习点评
见习点评
帖子互动: 259
帖子: 1831
注册时间: 2022年 7月 24日 19:52

#60 Re: Deepseek-OCR

帖子 fantasist »

banpingcu 写了: 2025年 10月 22日 18:00

你怎么不难算盘出来说事?早了图灵两千年。

再说你知道你说的这个话有多可笑吗?“在10年附近GPU足够强大了证明真正能用之前,一直是识别手写数字的玩具级别。没有人是先知,只有hinton等人能坚持活到曙光是必然的。” 你当大家都是傻逼,三十年就出了一个Hinton。

想要成为下一个Hinton ,就得向他一样不怕权威。还有一点,Hinton一家子纯粹的共产主义者。匍匐在权威,资本的脚下,给他们唱赞歌,你哪儿也去不了。

大家都不是傻逼,看事不可为,就去做别的了。我上个回复就是告诉你,很多时候只有极少数犟种能坚持到最后被证明是正确的,这就是世界的运转方式。一个过几十年才能被验证的理论一出来就众星捧月,这个叫科幻,在现实中不存在。你看来对这个世界会出现很多“不怕权威的纯粹的共产主义者”有幻想,那只能呵呵了,接着做梦吧。

wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 785
帖子: 7801
注册时间: 2022年 7月 23日 22:13

#61 Re: Deepseek-OCR

帖子 wass »

fanqie 写了: 2025年 10月 21日 19:04

按照现在标准,这是能拿诺贝尔奖的成果

展开说说

回复

回到 “葵花宝典(Programming)”