# 相关技巧及问题收集

**有关偶尔出现的使用故障的解答**
因接口服务依托于国外的OPENAI接口服务。所以一旦OPENAI接口服务出现故障，影响的是全球用户，这块可以详见OPENAI的官方服务监控状态页https://status.openai.com/ 【建议开发者通过页面“Subscribe to updates”订阅邮箱通知，好及时根据接口状态跟进维护】。
另外目前国内外中转服务器稳定性较高，近2年暂无故障情况出现，这块因可控性较高，基本可排队这块的问题。

**如何降低每次消耗**
- 采用新版模型，一般新模型性能及费用都相对较低
- 修改参数【max_tokens】的值，默认是4000.建议改好值后多尝试下是否符合效果。
切记max_tokens设定过短会导致内容接收不完整，导致对话质量下降。
> 例：当你的提问是“请讲个100汉字左右的童话故事”，
情况1：参数max_tokens:50，这时GPT回复的故事，会出现讲到一半就出现文字中断的情况。
> 情况2：参数max_tokens:2000，这时GPT回复的故事,是完整的100个字左右的故事。



**如何提升对话回复速度/用户体验**
- 采用流式输出 
服务后端程序建议采用sse的流式加载方案
前端可采用fetch() 和 EventSource，小程序采用wx.request（设置 enableChunked 参数为 true，启用分片传输）

【技术视频】
有关数据流式获取的 
https://www.bilibili.com/video/BV13c411i7qN/?spm_id_from=pageDriver&vd_source=f5922e24c241458355c2b7cd21b02ecf

【一些相关的技术文档】
https://blog.csdn.net/wangsenling/article/details/130490769
https://www.mdaima.com/it/5659.html
https://www.jb51.net/article/279015.htm
- 遇到官方报错时，可在技术上采用隐性重试
因官方服务接口的不确定性，有时需要多次重试提交才会有回复，如遇到返回的字符是{}或是其它报错，在判断相应字符符合条件的情况下可进行自动重试提交，以提升用户体验



**如何查询可用余额**
详见https://apifox.com/apidoc/shared-52fb41cb-0e62-4e34-b06d-f9334d7a0502/api-106638685

**是否能在PC上使用**
可以，通过电脑版浏览器访问网址：https://yewu.bcwhkj.cn
首次登陆需微信扫码，登陆后的身份信息在不清空浏览器缓存的情况下可永久保留，无需再次扫码登陆

**TOKEN忘记了怎么办**
因为是绑定微信的，除非是微信号换了，不然不可能找不回TOKEN。
TOKEN查看入口在冰橙AI助手右上角导航菜单 “API密钥”中查看

****

**更多问题**
可在此链接进行问题登记
https://support.qq.com/product/600324
