你去看一下,如对回答不满意而report,其实是可以选择合适的回答的。
大语言模型LLM大方向可能不对
版主: Softfist
-
wanmeishijie(石昊)
- 论坛元老

wanmeishijie 的博客 - 帖子互动: 2360
- 帖子: 72520
- 注册时间: 2022年 12月 10日 23:58
#21 Re: 大语言模型LLM大方向可能不对
理解了老将是代入狗的视角之后,你就理解了老将
viewtopic.php?t=120513
理解了它们是代入狗的视角之后,它们为什么会嘲笑不愿意当狗的人,以及为什么会害怕想要反抗的人,就都可以理解了:
“放着好好的狗不当”
-
newIdRobot(新器人)
- 论坛支柱

- 帖子互动: 410
- 帖子: 13096
- 注册时间: 2022年 7月 21日 21:29
#26 Re: 大语言模型LLM大方向可能不对
人脑是小数据集的训练推理,LLM是大数据集的训练进行统计计算。
LLM只是一种更高级的数据库查询,本质上和现在的关系型数据库没啥差别,只能在现有数据集里面找答案。
LLM只是一种更高级的数据库查询,本质上和现在的关系型数据库没啥差别,只能在现有数据集里面找答案。
#27 Re: 大语言模型LLM大方向可能不对
目前AI就是个搜索,统计概率优化, ChatGPT明确给出信息来源(copiliot)搜不到的就不会
英文会的,中文同样问题就不会
错了,你指出它会认错,然后就不再回答同样的问题
简单的期权都会错德离谱

英文会的,中文同样问题就不会
错了,你指出它会认错,然后就不再回答同样的问题
简单的期权都会错德离谱

#28 Re: 大语言模型LLM大方向可能不对
你这就是扯淡了, 我根本没有训练过, 连这个话题一点都没有碰。wanmeishijie 写了: 2023年 12月 19日 14:46 现在也可以训练。之前GPT理解并说漏嘴道出谢永获得7000万美元的赔偿,现在再也不这么说了,守口如瓶的很。耗子肯定训练了GPT
肯定是有人追究这个source, chatgpt根本就没法自圆其说。
你这个傻逼以为chatgpt如何, 我跟你说你就是傻逼,
chatgpt的首要功能是造谣!
就是用机器来控制舆论, 这是美帝的目的, 又要造谣, 又要不负责任。
你它妈还以为找到亲爹了,
我说你傻逼都是轻的。
-
wanmeishijie(石昊)
- 论坛元老

wanmeishijie 的博客 - 帖子互动: 2360
- 帖子: 72520
- 注册时间: 2022年 12月 10日 23:58
#29 Re: 大语言模型LLM大方向可能不对
耗子,你是不是被你姐给怼了?或者是拿不到房产开始发疯了?hhcare 写了: 2023年 12月 19日 15:19 你这就是扯淡了, 我根本没有训练过, 脸这个话题一点都没有碰。
肯定是有人追究这个source, chatgpt根本就没法自圆其说。
你这个傻逼以为chatgpt如何, 我跟你说你就是傻逼,
chatgpt的首要功能是造谣!
就是用机器来控制舆论, 这是美帝的目的, 又要造谣, 又要不负责任。
你它妈还以为找到亲爹了,
我说你傻逼都是轻的。
平常你都谦虚的很。今天发火儿,不是被老娘骂了就是被姐姐怼了。
你17年不回国尽孝,有什么面皮在这里吆五喝六?
理解了老将是代入狗的视角之后,你就理解了老将
viewtopic.php?t=120513
理解了它们是代入狗的视角之后,它们为什么会嘲笑不愿意当狗的人,以及为什么会害怕想要反抗的人,就都可以理解了:
“放着好好的狗不当”
#30 Re: 大语言模型LLM大方向可能不对
说明你也脑子不行呗,wanmeishijie 写了: 2023年 12月 19日 15:22 耗子,你是不是被你姐给怼了?或者是拿不到房产开始发疯了?
平常你都谦虚的很。今天发火儿,不是被老娘骂了就是被姐姐怼了。
你17年不回国尽孝,有什么面皮在这里吆五喝六?
如果你看懂我说的, 谦虚点就不会认为我脾气不好了。
你就会很惭愧自己脑残了。
-
Caravel楼主
- 论坛元老

Caravel 的博客 - 帖子互动: 719
- 帖子: 28004
- 注册时间: 2022年 7月 24日 17:21
#32 Re: 大语言模型LLM大方向可能不对
估计要和机器人结合起来,现在人形机器人火起来了da1gaku 写了: 2023年 12月 19日 14:27 智能这东西没有严格定义。
比如一个正常人要学会一门外语,并能翻译学术文章,至少要十年八年。
大模型很短时间就能做到十几种语言高质量互译。
这个算不算智能呢?这不是简单的知识存储和调用。
#33 Re: 大语言模型LLM大方向可能不对
LLM还是基于概率的模型,例如,
关系型数据库
select (所有的)下一步 条件是 前提1,前提2,...
LLM
select (概率值最大的)下一步 条件是 前提1,前提2
所以LLM本身并不具备理解能力,只是机械地按照喂进去的数据计算概率。它也并不能推导出新的概念或者新的理论。
关系型数据库
select (所有的)下一步 条件是 前提1,前提2,...
LLM
select (概率值最大的)下一步 条件是 前提1,前提2
所以LLM本身并不具备理解能力,只是机械地按照喂进去的数据计算概率。它也并不能推导出新的概念或者新的理论。
-
wanmeishijie(石昊)
- 论坛元老

wanmeishijie 的博客 - 帖子互动: 2360
- 帖子: 72520
- 注册时间: 2022年 12月 10日 23:58
#35 Re: 大语言模型LLM大方向可能不对
真是垃圾。
你说得好,说得妙,然而是转移话题。目的只是担心别人说的实话妨碍你。。。
理解了老将是代入狗的视角之后,你就理解了老将
viewtopic.php?t=120513
理解了它们是代入狗的视角之后,它们为什么会嘲笑不愿意当狗的人,以及为什么会害怕想要反抗的人,就都可以理解了:
“放着好好的狗不当”
-
wanmeishijie(石昊)
- 论坛元老

wanmeishijie 的博客 - 帖子互动: 2360
- 帖子: 72520
- 注册时间: 2022年 12月 10日 23:58
#38 Re: 大语言模型LLM大方向可能不对
别在这里拉踩。Netflix骂你蓝皮汉奸,你一句话不敢反驳
理解了老将是代入狗的视角之后,你就理解了老将
viewtopic.php?t=120513
理解了它们是代入狗的视角之后,它们为什么会嘲笑不愿意当狗的人,以及为什么会害怕想要反抗的人,就都可以理解了:
“放着好好的狗不当”
#39 Re: 大语言模型LLM大方向可能不对
我为啥要反驳?
他心里知道我不是汉奸
只是看我活着,他不痛快发泄一下而已。。。。
上次由 hhcare 在 2023年 12月 19日 16:11 修改。


