冰橙API - gpt
  1. 文生文 对话生成
冰橙API - gpt
  • 冰橙API概述
  • 身份验证/获取token
  • 文生文 对话生成
    • 相关技巧及问题收集
    • demo 演示例子
      • html单页对话DEMO
      • 如何让GPT扮演具体角色
    • 对话生成 chatGpt 接口
      POST
    • 对话生成 GPT3.5 非流式 get
      GET
    • 对话生成 GPT-4.1-mini
      POST
    • 对话生成 GPT-4o-mini
      POST
    • 对话生成 GPT-4o-mini 多模态-图像识别
      POST
    • 对话生成 GPT-4o
      POST
    • 对话生成 GPT-4o-search 联网查询
      POST
    • 对话生成 GLM-Web联网查询
      POST
    • 对话生成 JSON回复模式
      POST
    • 对话生成 函数式调用FunctionCall
      POST
    • 图像识别 glm-4v-flash
      POST
    • 视频识别 glm-4v-flash
      POST
  • 文生图 图像生成
    • 图像生成 国产模型【推荐】
      POST
    • 图像生成 DALL·E 3
      POST
    • gpt-4o-image-vip
      POST
  • 文生音 音频生成
    • 文字转语音接口
      POST
  • 向量数据
    • 文本转向量 openai
      POST
  • 其它
    • 余额查询
      POST
    • 余额查询
      GET
    • 可用模型列表
      POST
  • 公众号服务接口
    • H5 公众号用户身份识别并返回openid
  • 隐私政策
    • 隐私政策
  1. 文生文 对话生成

对话生成 chatGpt 接口

POST
https://yewu.bcwhkj.cn/v1/chat/completions
冰橙API提供与OPENAI官方的API兼容的接口方式,方便国内开发者进行与OPENAI的CHATGPT的接口对接服务
💡
注:GPT3.5所有模型将强制指向gpt-4o-mini,即最新模型
有关非流式请求的消耗将降为原来的一半
💡
对话生成 GPT3.5 采用非SSE方式(流式),对话响应一般,需等待官方数据全部接收后才会进行响应输出
推荐采用流式输出 ,效果更好

token获取方式:#

访问公众号《冰橙云》进入菜单冰橙AI助手后,访问右上角 / API密钥 可查看 token
访问:https://yewu.bcwhkj.cn 》 个人 》API密钥 》Token令牌
只列出部分常用参数,完整参数说明参考
OpenAI 官方文档:https://platform.openai.com/docs/api-reference/chat

请求参数

Header 参数
Content-Type
string 
固定值
可选
默认值:
application/json
Authorization
string 
可选
token要更换为个人自己的TOKEN
默认值:
Bearer token
Body 参数application/json
messages
array [object {2}] 
必需
role
enum<string> 
必需
枚举值:
systemuserassistant
content
string 
提问的内容
必需
model
enum<string> 
模型
必需
枚举值:
gpt-3.5-turbo-0125gpt-3.5-turbogpt-3.5-turbo-16kgpt-4ogpt-4-0125-previewgpt-4-turbo-preview
默认值:
gpt-3.5-turbo-0613
stream
boolean 
是否启用流式
可选
默认值:
false
max_tokens
integer 
可选
回复的最大内容长度。限制一次请求中模型生成 completion 的最大 token 数。输入 token 和输出 token 的总长度受模型的上下文长度的限制。
默认值:
4000
frequency_penalty
integer 
可选
频率惩罚,-2.0 到 2.0 之间的数字。正值根据新标记在文本中到目前为止的现有频率进行惩罚,降低模型重复相同行文字的可能性。
temperature
integer 
可选
使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或top_p但不是两者。
top_p
integer 
可选
一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或temperature但不是两者同时提交。
n
integer 
可选
为每个输入消息生成多少个聊天补全选择。
response_format
object 
可选
指定模型必须输出的格式的对象。 将 { "type": "json_object" } 启用 JSON 模式,这可以确保模型生成的消息是有效的 JSON。 重要提示:使用 JSON 模式时,还必须通过系统或用户消息指示模型生成 JSON。如果不这样做,模型可能会生成无休止的空白流,直到生成达到令牌限制,从而导致延迟增加和请求“卡住”的外观。另请注意,如果 finish_reason="length",则消息内容可能会被部分切断,这表示生成超过了 max_tokens 或对话超过了最大上下文长度。 显示属性
type
string 
可选
默认值:
json_object
tools
array[string]
可选
模型可以调用的一组工具列表。目前,只支持作为工具的函数。使用此功能来提供模型可以为之生成 JSON 输入的函数列表。
tool_choice
object 
可选
控制模型调用哪个函数(如果有的话)。none 表示模型不会调用函数,而是生成消息。auto 表示模型可以在生成消息和调用函数之间进行选择。通过 {"type": "function", "function": {"name": "my_function"}} 强制模型调用该函数。 如果没有函数存在,默认为 none。如果有函数存在,默认为 auto。 显示可能的类型
示例
{
  "messages": [
    {
      "role": "system",
      "content": "你是一个能干的助手."
    },
    {
      "role": "user",
      "content": "谁赢得了2020年的世界职业棒球大赛?"
    },
    {
      "role": "assistant",
      "content": "洛杉矶道奇队在2020年赢得了世界职业棒球大赛冠军."
    },
    {
      "role": "user",
      "content": "它在哪里举办的?"
    }
  ],
  "model": "gpt-4o-mini",
  "stream": false
}

示例代码

Shell
JavaScript
Java
Swift
Go
PHP
Python
HTTP
C
C#
Objective-C
Ruby
OCaml
Dart
R
请求示例请求示例
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://yewu.bcwhkj.cn/v1/chat/completions' \
--header 'Authorization: Bearer token' \
--header 'Content-Type: application/json' \
--data-raw '{
    "messages": [
        {"role": "system", "content": "你是一个能干的助手."},
        {"role": "user", "content": "谁赢得了2020年的世界职业棒球大赛?"},
        {"role": "assistant", "content": "洛杉矶道奇队在2020年赢得了世界职业棒球大赛冠军."},
        {"role": "user", "content": "它在哪里举办的?"}
    ],
    "model": "gpt-4o-mini",
    "stream": false
}'

返回响应

🟢200成功
application/json
Body
id
string 
必需
model
string 
使用的模型
必需
choices
array [object {1}] 
必需
message
object 
可选
示例
{
  "id": "chatcmpl-7stavzrezgeImDvdKABNHVNbZvIN4",
  "object": "chat.completion",
  "created": 1693317773,
  "model": "gpt-3.5-turbo-0613",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "2020年的世界职业棒球大赛是在美国德州州的阿灵顿的球场举办的."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 101,
    "completion_tokens": 40,
    "total_tokens": 141
  }
}
上一页
如何让GPT扮演具体角色
下一页
对话生成 GPT3.5 非流式 get
Built with