对应老买买提的军事天地,观点交锋比较激烈,反驳不留情面,请作好心理准备。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。
版主: Softfist
-
netflix(nf)
- 论坛元老

- 帖子互动: 1161
- 帖子: 24202
- 注册时间: 2022年 8月 2日 04:48
帖子
由 netflix(nf) »
hhcare 写了: 2023年 12月 19日 16:10
我为啥要反驳?
他心里知道我不是汉奸
只是看我活着,他不痛快发泄一下而已。。。。
草,你这个蓝皮汉奸17年没有去过中国,还算计着把你老娘的棺材本和养老金换成美元all in你美爹,对中国贡献是负的,你不是汉奸这版上就没人是汉奸了
-
hhcare(钟馗)
- 版内封禁中

2024年度十大优秀网友
- 帖子互动: 2192
- 帖子: 62345
- 注册时间: 2022年 7月 29日 10:28
帖子
由 hhcare(钟馗) »
netflix 写了: 2023年 12月 19日 16:12
草,你这个蓝皮汉奸17年没有去过中国,对中国贡献是负的,你不是汉奸这版上就没人是汉奸了
你想清除没有?
Chatgpt 到底干啥的?
你总是在关键问题上避开
拿汉奸做借口
上次由
hhcare 在 2023年 12月 19日 16:14 修改。
-
Caravel楼主
- 论坛元老

Caravel 的博客
- 帖子互动: 717
- 帖子: 27973
- 注册时间: 2022年 7月 24日 17:21
帖子
由 Caravel楼主 »
da1gaku 写了: 2023年 12月 19日 16:10
这个可以argue其实人脑也只是概率计算器
不过人脑处理的信息种类多,不光是文字
人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
-
da1gaku
- 论坛元老

- 帖子互动: 415
- 帖子: 19284
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
Caravel 写了: 2023年 12月 19日 16:14
人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
对和错也有些是人为规定的,或者是语言特质决定的
机器不能天然判断,需要训练
比如一张马的画被归类为“马”,人类一般认为是对的
但某外星人可能认为马的一个低劣平面肖像跟马根本不能归为一类
-
netflix(nf)
- 论坛元老

- 帖子互动: 1161
- 帖子: 24202
- 注册时间: 2022年 8月 2日 04:48
帖子
由 netflix(nf) »
Caravel 写了: 2023年 12月 19日 16:14
人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
-
hhcare(钟馗)
- 版内封禁中

2024年度十大优秀网友
- 帖子互动: 2192
- 帖子: 62345
- 注册时间: 2022年 7月 29日 10:28
帖子
由 hhcare(钟馗) »
netflix 写了: 2023年 12月 19日 16:18
这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
你昧着良心说谎
分明背后的邪恶公司可以。。。控制权重的。
不明白stem 和逻辑判断的llm
就是Netflix
-
netflix(nf)
- 论坛元老

- 帖子互动: 1161
- 帖子: 24202
- 注册时间: 2022年 8月 2日 04:48
帖子
由 netflix(nf) »
hhcare 写了: 2023年 12月 19日 16:21
你昧着良心说谎
分明背后的邪恶公司可以。。。控制权重的
媒体还能发假新闻呢,市场上又不是只有一家LLM,消费者自然会选择
-
hhcare(钟馗)
- 版内封禁中

2024年度十大优秀网友
- 帖子互动: 2192
- 帖子: 62345
- 注册时间: 2022年 7月 29日 10:28
帖子
由 hhcare(钟馗) »
netflix 写了: 2023年 12月 19日 16:23
媒体还能发假新闻呢,市场上又不是只有一家LLM,消费者自然会选择
你牛逼
家里水电气。。。还有一切都有选择。。。
整个被洗得成傻逼了
美华有啥选择?
哪个媒体为美华说话了??
美国媒体是假新闻的问题吗??
-
rtscts
- 论坛精英

- 帖子互动: 891
- 帖子: 8351
- 注册时间: 2023年 9月 10日 15:11
帖子
由 rtscts »
da1gaku 写了: 2023年 12月 19日 16:10
这个可以argue其实人脑也只是概率计算器
不过人脑处理的信息种类多,不光是文字
人脑可以产生新的概念和新的理论。LLM不行,LLM只能查询。
-
da1gaku
- 论坛元老

- 帖子互动: 415
- 帖子: 19284
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
rtscts 写了: 2023年 12月 19日 16:25
人脑可以产生新的概念和新的理论。LLM不行,LLM只能查询。
模型里可能也有新的概念和理论,以人类无法理解的形式
模型不会主动去发表新发现,但有时会体现出来
-
Caravel楼主
- 论坛元老

Caravel 的博客
- 帖子互动: 717
- 帖子: 27973
- 注册时间: 2022年 7月 24日 17:21
帖子
由 Caravel楼主 »
netflix 写了: 2023年 12月 19日 16:18
这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
怎么添加,目前的架构不行?
-
Caravel楼主
- 论坛元老

Caravel 的博客
- 帖子互动: 717
- 帖子: 27973
- 注册时间: 2022年 7月 24日 17:21
帖子
由 Caravel楼主 »
netflix 写了: 2023年 12月 19日 16:18
这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
怎么添加,目前的架构不行?
-
netflix(nf)
- 论坛元老

- 帖子互动: 1161
- 帖子: 24202
- 注册时间: 2022年 8月 2日 04:48
帖子
由 netflix(nf) »
Caravel 写了: 2023年 12月 19日 16:29
怎么添加,目前的架构不行?
那你觉得人脑是怎么判断多重信息来源下怎么样鉴别出可靠信息的?
评级+交叉验证就行了。
LLM既然能人工标注信息,当然也可以标注信息来源可靠度,那种胡说八道的自媒体,直接评级可靠度为零就行了
-
Caravel楼主
- 论坛元老

Caravel 的博客
- 帖子互动: 717
- 帖子: 27973
- 注册时间: 2022年 7月 24日 17:21
帖子
由 Caravel楼主 »
da1gaku 写了: 2023年 12月 19日 16:17
对和错也有些是人为规定的,或者是语言特质决定的
机器不能天然判断,需要训练
比如一张马的画被归类为“马”,人类一般认为是对的
但某外星人可能认为马的一个低劣平面肖像跟马根本不能归为一类
这不是关键,人类知道各种纠错机制,比如不知道是不是马,可以去问兽医。比如不理解你的提问,可以再问你十几个问题澄清一下。一次不行两次,沟通几十次把问题搞清楚
-
Caravel楼主
- 论坛元老

Caravel 的博客
- 帖子互动: 717
- 帖子: 27973
- 注册时间: 2022年 7月 24日 17:21
帖子
由 Caravel楼主 »
netflix 写了: 2023年 12月 19日 16:33
那你觉得人脑是怎么判断多重信息来源下怎么样鉴别出可靠信息的?
评级+交叉验证就行了。
LLM既然能人工标注信息,当然也可以标注信息来源可靠度,那种胡说八道的自媒体,直接评级可靠度为零就行了
首先信息存储就是有分级别的,ground truth,看书的,上网看的,还有推理可以多轮交流
-
rtscts
- 论坛精英

- 帖子互动: 891
- 帖子: 8351
- 注册时间: 2023年 9月 10日 15:11
帖子
由 rtscts »
总而言之,在人类没有确实明白智能和意识到底是什么之前,这些基于机械概率计算的大语言模型只能称为下一代的数据库。
-
hhcare(钟馗)
- 版内封禁中

2024年度十大优秀网友
- 帖子互动: 2192
- 帖子: 62345
- 注册时间: 2022年 7月 29日 10:28
帖子
由 hhcare(钟馗) »
netflix 写了: 2023年 12月 19日 14:48
给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。
你扯淡半天还是不能回答, 根本问题。 就是trust
你知道背后是啥呢?如果挑选合适时刻evil害你, 怎么办。。
比如平常医生都显得慈眉善目的, 可是当你不能喊, 或跟前没有人的时候, 活摘怎么办?
医院你可以不去, 但是平日的很多事情在你不知道的情况下, 可能坑死你,
你如何相信chatgpt?
-
netflix(nf)
- 论坛元老

- 帖子互动: 1161
- 帖子: 24202
- 注册时间: 2022年 8月 2日 04:48
帖子
由 netflix(nf) »
hhcare 写了: 2023年 12月 19日 16:54
你扯淡半天还是不能回答, 根本问题。 就是trust
你知道背后是啥呢?如果挑选合适时刻evil害你, 怎么办。。
比如平常医生都显得慈眉善目的, 可是当你不能喊, 或跟前没有人的时候, 活摘怎么办?
医院你可以不去, 但是平日的很多事情在你不知道的情况下, 可能坑死你,
你如何相信chatgpt?
比如你这种言行不一的,嘴上喊着要回国,行动上17年没回过国。一边喊买不起中国的房子,一边要丈母娘和老娘把棺材本和退休金都拿出来换成美元再all in你美爹第二套房。
你的评级可以定为0,因为垃圾信息太多,会污染人工智能库。
-
FGH
- 论坛精英

- 帖子互动: 107
- 帖子: 7091
- 注册时间: 2022年 7月 25日 16:30
帖子
由 FGH »
Caravel 写了: 2023年 12月 19日 16:14
人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
你问GPT问题敲错字,GPT经常能明白你的意思。