heronylee 发表于 2023-8-2 22:35:02

答主是不是发现一次性发很长的文本会被提示太长了,而一段一段发就可以?但是实际上,这样发超过了最长token限制后,它会把前面的内容抛弃掉,所以和一次性发没有什么区别

有块砖头 发表于 2023-8-2 22:35:53

文献多长都无所谓,是时间跨度太长了,一个对话框过久了就可能蹦出这个提示

54down 发表于 2023-8-2 22:36:08

有没有可能in context learning跟训练有本质区别

zarong 发表于 2023-8-2 22:36:27

不是吧,我现在找一个很久以前的对话框,也还是可以继续对话的

new_jam 发表于 2023-8-2 22:37:11

买个plus就可以了

alexgoodboy 发表于 2023-8-2 22:37:53

现在的chat记性差多了,文字一多就忘了之前的指令

xinjing 发表于 2023-8-2 22:38:13

训练可不是一个人能完成的,那是靠大家不断的使用,慢慢训练

瘾大技术差 发表于 2023-8-2 22:39:05

为了理解上下文,你每次对话都会把这轮所有的context都传给GPT,所以为了节省算力就加了对话字数上限

jiepai9 发表于 2023-8-2 22:39:22

Fine tune api有个限制, 就是必须针对每一条输入信息指定想要的输出信息。有的时候没有这种一对一的对应关系存在。

dxl0812 发表于 2023-8-2 22:40:16

答主的意思是一次性发会提示文本过长,但是分成好几次发就不会了。但实际上就算好几次发,它也会把之前的内容抛弃掉以满足最长字数的限制
页: 1 [2] 3
查看完整版本: 训练了3天的chatGPT崩了