AI 聊天bug 发送送聊天内容就报错了

toms

问题描述

聊天模型选 gpt-3.5-turbo-0613
设置最大token数 4096
发送送聊天内容就报错了
This model's maximum context length is 4097 tokens. However, you requested 4104 tokens (8 in the messages, 4096 in the completion). Please reduce the length of the messages or completion.

操作系统环境及workerman/webman等具体版本

都是最新版

795 1 0
1个回答

walkor

gpt-3.5-turbo 和 gpt-3.5-turbo-0613 不支持输出4096 tokens。
gpt-3.5-turbo-16k支持

  • toms 2023-06-22

    我也输入了一个字就报错。 不支持的 那前端还得改下设置界面。

  • walkor 2023-06-22

    重新下载一份代码覆盖下,刚刚做了兼容

  • toms 2023-06-22

    👍

🔝