大语言模型LLM大方向可能不对
版主: Softfist
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 719
- 帖子: 27991
- 注册时间: 2022年 7月 24日 17:21
#1 大语言模型LLM大方向可能不对
大语言模型到底是语言的model,还是智能的model,我怀疑是前者。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 719
- 帖子: 27991
- 注册时间: 2022年 7月 24日 17:21
-
sjtuvincent(环球商务客)
- 论坛元老

sjtuvincent 的博客 - 帖子互动: 859
- 帖子: 35960
- 注册时间: 2022年 10月 16日 10:31
#8 Re: 大语言模型LLM大方向可能不对
初级阶段,机器人那么笨,需要更多输入Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
等到输入少,输出多的时候,地球人会害怕的
数字游民信仰AI教!知足绝不驻足,玩勿丧志,数字游民宅在风景里,哪里都不完美都不宜久留
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 719
- 帖子: 27991
- 注册时间: 2022年 7月 24日 17:21
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 719
- 帖子: 27991
- 注册时间: 2022年 7月 24日 17:21
#15 Re: 大语言模型LLM大方向可能不对
小孩和特别是成人的给出的回答是高度可靠的,而且通过纠错进一步提高。LLM没有纠错机制。netflix 写了: 2023年 12月 19日 14:27 我觉得楼主没有理解,训练的材料多,带来的直接优势是知识面,一个小孩甚至一个成人的知识面是有限的,而LLM是全面的知识面,可以回答不同方面的问题
#16 Re: 大语言模型LLM大方向可能不对
只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。
可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。
就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
-
wanmeishijie(石昊)
- 论坛元老

wanmeishijie 的博客 - 帖子互动: 2356
- 帖子: 72497
- 注册时间: 2022年 12月 10日 23:58
#18 Re: 大语言模型LLM大方向可能不对
现在也可以训练。之前GPT理解并说漏嘴道出谢永获得7000万美元的赔偿,现在再也不这么说了,守口如瓶的很。耗子肯定训练了GPTnetflix 写了: 2023年 12月 19日 14:39 只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。
可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。
就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
x1
理解了老将是代入狗的视角之后,你就理解了老将
viewtopic.php?t=120513
理解了它们是代入狗的视角之后,它们为什么会嘲笑不愿意当狗的人,以及为什么会害怕想要反抗的人,就都可以理解了:
“放着好好的狗不当”
#19 Re: 大语言模型LLM大方向可能不对
给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。netflix 写了: 2023年 12月 19日 14:39 只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。
可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。
就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
#20 Re: 大语言模型LLM大方向可能不对
chatgpt号称现在的版本是一两年以前训练好的,按理不会被新输入干扰wanmeishijie 写了: 2023年 12月 19日 14:46 现在也可以训练。之前GPT理解并说漏嘴道出谢永获得7000万美元的赔偿,现在再也不这么说了,守口如瓶的很。耗子肯定训练了GPT



