AI 聊天bug 发送送聊天内容就报错了

问题描述 聊天模型选 gpt-3.5-turbo-0613 设置最大token数 4096 发送送聊天内容就报错了 This model's maximum context length is 4097 tokens. However, you requested 4104 tokens (8 in the messages, 4096 in the completion). Please reduce the le...

toms 发表与 2023-06-22 1987 浏览 1 回答

toms

140
积分
0
获赞数
0
粉丝数
2023-06-07 加入
🔝