训练了3天的chatGPT崩了

[复制链接]
heronylee 发表于 2023-8-2 22:35:02|来自:北京 | 显示全部楼层
答主是不是发现一次性发很长的文本会被提示太长了,而一段一段发就可以?但是实际上,这样发超过了最长token限制后,它会把前面的内容抛弃掉,所以和一次性发没有什么区别
有块砖头 发表于 2023-8-2 22:35:53|来自:北京 | 显示全部楼层
文献多长都无所谓,是时间跨度太长了,一个对话框过久了就可能蹦出这个提示
54down 发表于 2023-8-2 22:36:08|来自:北京 | 显示全部楼层
有没有可能in context learning跟训练有本质区别
zarong 发表于 2023-8-2 22:36:27|来自:北京 | 显示全部楼层
不是吧,我现在找一个很久以前的对话框,也还是可以继续对话的
new_jam 发表于 2023-8-2 22:37:11|来自:北京 | 显示全部楼层
买个plus就可以了
alexgoodboy 发表于 2023-8-2 22:37:53|来自:北京 | 显示全部楼层
现在的chat记性差多了,文字一多就忘了之前的指令
xinjing 发表于 2023-8-2 22:38:13|来自:北京 | 显示全部楼层
训练可不是一个人能完成的,那是靠大家不断的使用,慢慢训练
瘾大技术差 发表于 2023-8-2 22:39:05|来自:北京 | 显示全部楼层
为了理解上下文,你每次对话都会把这轮所有的context都传给GPT,所以为了节省算力就加了对话字数上限
jiepai9 发表于 2023-8-2 22:39:22|来自:北京 | 显示全部楼层
Fine tune api有个限制, 就是必须针对每一条输入信息指定想要的输出信息。有的时候没有这种一对一的对应关系存在。
dxl0812 发表于 2023-8-2 22:40:16|来自:北京 | 显示全部楼层
答主的意思是一次性发会提示文本过长,但是分成好几次发就不会了。但实际上就算好几次发,它也会把之前的内容抛弃掉以满足最长字数的限制

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则