heronylee 发表于 2023-8-2 22:35:02
答主是不是发现一次性发很长的文本会被提示太长了,而一段一段发就可以?但是实际上,这样发超过了最长token限制后,它会把前面的内容抛弃掉,所以和一次性发没有什么区别有块砖头 发表于 2023-8-2 22:35:53
文献多长都无所谓,是时间跨度太长了,一个对话框过久了就可能蹦出这个提示54down 发表于 2023-8-2 22:36:08
有没有可能in context learning跟训练有本质区别zarong 发表于 2023-8-2 22:36:27
不是吧,我现在找一个很久以前的对话框,也还是可以继续对话的new_jam 发表于 2023-8-2 22:37:11
买个plus就可以了alexgoodboy 发表于 2023-8-2 22:37:53
现在的chat记性差多了,文字一多就忘了之前的指令xinjing 发表于 2023-8-2 22:38:13
训练可不是一个人能完成的,那是靠大家不断的使用,慢慢训练瘾大技术差 发表于 2023-8-2 22:39:05
为了理解上下文,你每次对话都会把这轮所有的context都传给GPT,所以为了节省算力就加了对话字数上限jiepai9 发表于 2023-8-2 22:39:22
Fine tune api有个限制, 就是必须针对每一条输入信息指定想要的输出信息。有的时候没有这种一对一的对应关系存在。dxl0812 发表于 2023-8-2 22:40:16
答主的意思是一次性发会提示文本过长,但是分成好几次发就不会了。但实际上就算好几次发,它也会把之前的内容抛弃掉以满足最长字数的限制