locoz 我有个疑问,GPT 健忘这个是我知道的,但是针对有明确答案的问题,为什么记不记得上下文会成为问题?如果你说我对话次数太多 token 不够用了,那么我 8L 用英文只进行了两次对话,再怎么说 token 数都够了,然而 GPT 仅仅在两轮对话里就出现了前后矛盾,这能用 token 数不够来解释吗?至于 GPT4 ,因为我并没有订阅,所以平时都是用公司搭在 Azure 上的 GPT4 ,但是反应比网页慢平时都不太想用。一般都是用 GPT3.5 。刚才问了下公司的,至少在单主分片多主分片问题下,得出了和 bard 相同的答案。今后还是用公司的 GPT4 了。至于你说的“复制官方文档内容,直接丢给 GPT4 ”,有个问题,作为新手根本就找不到相关知识点在那个文档里也无从谈起复制官方文档内容。不如说我想的问题找到在文档哪个部分了,我直接读就是了