您可以通过 HTTP 请求从任何语言与 API 进行交互,使用我们的官方 Python 绑定、官方 Node.js 库或社区维护的库。
要安装官方 Python 绑定,请运行以下命令:
pip install openai
要安装官方的Node.js库,请在您的Node.js项目目录中运行以下命令:
npm install openai
OpenAI API使用API密钥进行身份验证。访问您的API密钥页面以检索在请求中使用的API密钥。
请记住,您的API密钥是机密!不要与他人分享或在任何客户端代码(浏览器、应用程序)中公开它。生产请求必须通过您自己的后端服务器路由,其中可以从环境变量或键管理服务安全地加载您的API密钥。
所有 API 请求都应该在 Authorization
HTTP 头中包含您的 API 密钥,格式如下:
Authorization: Bearer OPENAI_API_KEY
请求组织
对于属于多个组织的用户,您可以传递一个头来指定用于 API 请求的组织。这些 API 请求的使用将计入指定组织的订阅配额。
示例 curl 命令:
使用openai Python
包的示例:
使用 OpenAI
Node.js 包的示例:
组织 ID 可以在您的组织设置页面找到。
您可以将以下命令粘贴到终端中以运行第一个API请求。请确保用您的秘密API密钥替换$OPENAI_API_KEY
。
此请求查询gpt-3.5-turbo
模型,以完成从提示“Say this is a test”开始的文本。您应该会收到类似以下内容的响应:
现在您已经生成了第一个聊天完成。我们可以看到finish_reason
是stop
,这意味着API返回了模型生成的完整完成。在上面的请求中,我们只生成了一条消息,但您可以将n
参数设置为生成多个消息选项。在此示例中,gpt-3.5-turbo
被用于更传统的文本完成任务。该模型也针对聊天应用进行了优化。
模型
列出并描述API中可用的各种模型。您可以参考模型文档以了解可用模型及其之间的区别。
列出当前可用的模型,并提供有关每个模型的基本信息,例如所有者和可用性。
GET ttps://api.openai.com/v1/models/{model}
检索模型实例,提供有关模型的基本信息,例如所有者和权限。
模型 字符串 必需的
用于此请求的模型ID
完成
在给定提示的情况下,模型将返回一个或多个预测完成,并且还可以返回每个位置上备选标记的概率。
为提供的提示和参数创建一个完成项。
model 字符串 必填
要使用的模型ID。您可以使用“列出模型”API查看所有可用模型,或者请参阅我们的“模型概述”以了解它们的描述。
prompt 字符串或数组 可选项 默认为
要生成完成的提示,编码为字符串、字符串数组、令牌数组或令牌数组的数组。
请注意 <|endoftext|>这是模型在训练过程中看到的文档分隔符,因此,如果未指定提示,则模型将生成新文档的开头。
suffix 字符串 可选的 默认为 null
插入文本完成后出现的后缀。
max_tokens 整数 可选项 默认为16
在完成中生成的最大标记数。
您的提示文本和 max_tokens
的令牌数不能超过模型的上下文长度。大多数模型的上下文长度为 2048 个令牌(除了最新的支持 4096 个令牌的模型)。
temperature 数字 可选的 默认为1
使用哪个采样温度,在0和2之间。较高的值,如0.8会使输出更随机,而较低的值,如0.2会使其更加集中和确定性。
我们通常建议更改此参数或 top_p
参数,但不要同时更改两者。
top_p 数字 可选项 默认为1
一种替代温度采样的方法叫做核心采样,模型会考虑到具有 top_p 概率质量的标记结果。因此,0.1 表示只考虑组成前 10% 概率质量的标记。
我们通常建议修改这个或者temperature
但不能同时拥有。
n 整数 可选项 默认为1
每个提示生成多少完成次数。
注意:由于此参数会生成许多完成结果,它可能会快速消耗您的令牌配额。请谨慎使用,并确保您对max_tokens和进行了合理的设置max_tokens
和stop
stream 布尔值 可选的 默认为false
是否返回部分进度流。如果设置,令牌将作为数据服务器推送事件随着它们变得可用而被发送,由于a的终止,流被终止data: [DONE]
信息。
logprobs 整数 可选项 默认值为null
在上面包括对数概率logprobs
最有可能的标记,以及所选的标记.例如,如果logprobs
如果输入的数字是5,API将返回最有可能的5个标记列表。API将始终返回logprob
被抽样的标记,因此可能会有多达logprobs+1
响应中的元素。
最大值为logprobs
是5。如果您需要更多,请通过我们的帮助中心联系我们,并描述您的使用情况。
echo 布尔值 可选的 默认为false
除了完成之外,还要回显提示。
stop 字符串或数组 可选项 默认为null
最多生成4个序列,API将停止生成更多的标记。返回的文本不包含停止序列。
stop 字符串或数组 可选项 默认为null
最多生成4个序列,API将停止生成更多的标记。返回的文本不包含停止序列。
presence_penalty 数字 可选项 默认为0
在-2.0和2.0之间的数字。正值根据它们在文本中出现的情况对新令牌进行惩罚,从而增加模型谈论新主题的可能性。
frequency_penalty 数字 可选项 默认为0
在-2.0和2.0之间的数字。正值会根据文本中现有词频惩罚新令牌,从而降低模型重复相同行的可能性。
best_of 整数 可选项 默认为1
生成best_of
完成服务器端的计算并返回“最佳”结果(每个标记具有最高对数概率)。结果无法流式传输。
当与n
一起使用时,best_of
控制候选完成的数量,n
指定要返回多少个 - best_of
必须大于n
。
注意:由于此参数会生成许多完成结果,它可能会快速消耗您的令牌配额。请谨慎使用,并确保您对 max_tokens
和 stop
设置合理。
logit_bias 地图 可选项 默认为null
修改指定标记在完成中出现的可能性。
接受一个JSON对象,将令牌(由GPT分词器中的令牌ID指定)映射到从-100到100的相关偏差值。您可以使用此分词器工具(适用于GPT-2和GPT-3)将文本转换为标记ID。在数学上,在采样之前,模型生成的logits会添加偏差。确切的影响因模型而异,但介于-1和1之间的值应该会减少或增加选择可能性;像-100或100这样的值应该会导致禁止或专有选择相关令牌。
例如,您可以传递 {"50256": -100}
来防止生成.
user 字符串 可选的
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。了解更多信息。
聊天
给定一个聊天对话,模型将返回一个聊天完成响应。
创建聊天消息的完成。
请求正文
model 字符串 必填
要使用的模型ID。有关哪些模型适用于Chat API的详细信息,请参见模型端点兼容性表。
messages 数组 必需的
用于生成聊天完成的消息,以聊天格式。
temperature 数字 可选项 默认为1
使用哪个采样温度,在0和2之间。较高的值,如0.8会使输出更随机,而较低的值,如0.2会使其更加集中和确定性。
我们通常建议更改此参数或 top_p
参数,但不要同时更改两者。
top_p 数字 可选项 默认为1
一种替代温度采样的方法叫做核心采样,模型会考虑到具有 top_p 概率质量的标记结果。因此,0.1 表示只考虑组成前 10% 概率质量的标记。
我们通常建议修改这个或者temperature
但不能同时拥有。
n 整数 可选项 默认为1
每个输入消息要生成多少聊天完成选项。
stream 布尔值 可选的 默认为false
如果设置了,将发送部分消息增量,就像在ChatGPT中一样。令牌将作为数据服务器推送事件随时可用,并通过终止流来发送data:[DONE]
消息。请参阅OpenAI Cookbook以获取示例代码。
stop 字符串或数组 可选项 默认为null
最多生成4个序列,API将停止生成更多的令牌。
max_tokens 整数 可选项 默认为无穷大
在聊天完成中生成的最大令牌数。
输入令牌和生成的令牌的总长度受模型上下文长度的限制。
presence_penalty 数字 可选项 默认为0
在-2.0和2.0之间的数字。正值根据它们在文本中出现的情况对新令牌进行惩罚,从而增加模型谈论新主题的可能性。
frequency_penalty 数字 可选项 默认为0
在-2.0和2.0之间的数字。正值会根据文本中现有词频惩罚新令牌,从而降低模型重复相同行的可能性。
logit_bias 地图 可选项 默认为null
修改完成时指定标记出现的可能性。
接受一个JSON对象,将标记(由分词器中的标记ID指定)映射到从-100到100的相关偏差值。在采样之前,模型生成的logits会加上这个偏差。确切的影响因模型而异,但是-1到1之间的值应该会减少或增加选择概率;像-100或100这样的值应该会导致相关标记被禁止或独占选择。
user 字符串 可选的
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。了解更多信息。
编辑
给定一个提示和一条指令,模型将返回提示的编辑版本。
model 字符串 必填
要使用的模型ID。您可以在此端点中使用text-davinci-edit-001
或code-davinci-edit-001
模型。
input 字符串 可选项 默认为''
用作编辑起点的输入文本。
instruction 字符串 必填
指导模型如何编辑提示的说明。
n 整数 可选项 默认为1
输入和指令需要生成多少次编辑。
temperature 数字 可选项 默认为1
使用哪个采样温度,在0和2之间。较高的值,如0.8会使输出更随机,而较低的值,如0.2会使其更加集中和确定性。
我们通常建议更改此参数或 top_p
参数,但不要同时更改两者。
top_p 数字 可选项 默认为1
一种替代温度采样的方法叫做核心采样,模型会考虑到具有 top_p 概率质量的标记结果。因此,0.1 表示只考虑组成前 10% 概率质量的标记。
我们通常建议修改这个或者temperature
但不能同时.
图像
根据提示创建图像。
prompt 字符串 必填
所需图像的文本描述。最大长度为1000个字符。
n 整数 可选项 默认为1
要生成的图像数量。必须在1和10之间。
size 字符串 可选项 默认为1024x1024
生成图像的尺寸。必须是256x256
、512x512
或1024x1024
之一。
response_format 字符串 可选项 默认为url
生成的图像返回格式。必须是url
或b64_json
之一。
user 字符串 可选的
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。了解更多信息。
根据原始图像和提示创建编辑或扩展的图像。
image 字符串 必填
要编辑的图像。必须是有效的PNG文件,小于4MB且为正方形。如果未提供遮罩,则图像必须具有透明度,该透明度将用作遮罩。
mask 字符串 可选的
另外一张图片,其完全透明的区域(例如 alpha 值为零的区域)指示了哪里image
应进行编辑。必须是有效的PNG文件,小于4MB,并且具有相同的尺寸imag
。
prompt 字符串 必填
所需图像的文本描述。最大长度为1000个字符。
n 整数 可选项 默认为1
要生成的图像数量。必须在1和10之间。
size 字符串 可选项 默认为1024x1024
生成图像的尺寸。必须是256x256
、512x512
或1024x1024
之一。
user 字符串 可选的
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。了解更多信息。
根据原始图像和提示创建编辑或扩展的图像。
image 字符串 必填
要编辑的图像。必须是有效的PNG文件,小于4MB且为正方形。如果未提供遮罩,则图像必须具有透明度,该透明度将用作遮罩。
mask 字符串 可选的
另外一张图片,其完全透明的区域(例如 alpha 值为零的区域)指示了哪里image
应进行编辑。必须是有效的PNG文件,小于4MB,并且具有相同的尺寸image
。
prompt 字符串 必填
所需图像的文本描述。最大长度为1000个字符。
n 整数 可选项 默认为1
要生成的图像数量。必须在1和10之间。
size 字符串 可选项 默认为1024x1024
生成图像的尺寸。必须是256x256
、512x512
或1024x1024
之一。
response_format 字符串 可选项 默认为url
生成的图像返回格式。必须是url
或b64_json
之一。
user 字符串 可选的
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。了解更多信息。
创建给定图像的变体。
image 字符串 必填
用作变体基础的图像。必须是有效的PNG文件,小于4MB,并且为正方形。
n 整数 可选项 默认为1
要生成的图像数量。必须在1和10之间。
size 字符串 可选项 默认为1024x1024
生成图像的尺寸。必须是256x256
、512x512
或1024x1024
之一。
response_format 字符串 可选项 默认为url
生成的图像返回格式。必须是url
或b64_json
之一。
user 字符串 可选的
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。了解更多信息。
嵌入
获得一个给定输入的向量表示,可以轻松地被机器学习模型和算法使用。
相关指南:嵌入
创建一个嵌入向量,代表输入的文本。
model 字符串 必填
要使用的模型ID。您可以使用“列出模型”API查看所有可用模型,或者请参阅我们的“模型概述”以了解它们的描述。
input 字符串或数组 必填
输入文本以获取嵌入,编码为字符串或令牌数组。要在单个请求中获取多个输入的嵌入,请传递字符串数组或令牌数组的数组。每个输入长度不得超过8192个标记。
user 字符串 可选的
一个唯一的标识符,代表您的终端用户,可以帮助OpenAI监测和检测滥用。了解更多信息。
音频
学习如何将音频转换为文本
相关指南:语音转文字
将音频转录为输入语言。
file 字符串 必填
要转录的音频文件,格式为以下之一:mp3、mp4、mpeg、mpga、m4a、wav 或 webm。
model 字符串 必填
要使用的模型ID。目前仅有whisper-1
可用。
prompt 字符串 可选的
一个可选的文本,用于指导模型的风格或继续之前的音频片段。提示应该与音频语言相匹配。
response_format 字符串 可选项 默认为json
转换成简体中文:转录输出的格式,可选项包括json、文本、srt、verbose_json或vtt。
temperature 数字 可选项 默认为0
采样温度介于0和1之间。较高的值(如0.8)会使输出更随机,而较低的值(如0.2)则会使其更加集中和确定性。如果设置为0,则模型将使用对数概率自动增加温度,直到达到某些阈值。
language 字符串 可选的
输入音频的语言。以 ISO-639-1 格式提供输入语言将提高准确性和延迟。
将音频翻译成英语。
file 字符串 必填
要翻译的音频文件必须是以下格式之一:mp3、mp4、mpeg、mpga、m4a、wav或webm。
model 字符串 必填
要使用的模型ID。目前仅有whisper-
1可用。
prompt 字符串 可选的
一个可选的文本,用于指导模型的风格或继续之前的音频片段。提示应该是英语。
response_format 字符串 可选项 默认为json
转换成简体中文:转录输出的格式,可选项包括json、文本、srt、verbose_json或vtt。
temperature 数字 可选项 默认为0
采样温度介于0和1之间。较高的值(如0.8)会使输出更随机,而较低的值(如0.2)则会使其更加集中和确定性。如果设置为0,则模型将使用对数概率自动增加温度,直到达到某些阈值。
文件
文件用于上传文档,可与Fine-tuning等功能一起使用。
返回属于用户组织的文件列表。
上传包含文档的文件以在各个端点/功能中使用。目前,一个组织上传的所有文件的大小可以高达1 GB。如果您需要增加存储限制,请与我们联系。
file 字符串 必填
要上传的 JSON Lines 文件的名称。
如果purpose
被设置为“微调”,每一行都是一个JSON记录,其中包含“prompt”和“completion”字段,表示您的训练示例。
purpose 字符串 必填
上传文档的预期用途。
使用“fine-tune”进行微调。这样可以验证上传文件的格式。
删除一个文件。
file_id 字符串 必填
用于此请求的文件ID
返回有关特定文件的信息。
file_id 字符串 必填
用于此请求的文件ID
返回指定文件的内容
file_id 字符串 必填
用于此请求的文件ID
微调
管理微调作业以将模型定制为您的特定训练数据。
相关指南:微调模型
创建一个工作,从给定的数据集中微调指定模型。
响应包括已入队的作业的详细信息,包括作业状态和完成后微调模型的名称。
training_file 字符串 必填
上传的包含训练数据的文件ID。
请参阅上传文件以了解如何上传文件。
您的数据集必须格式化为JSONL文件,其中每个训练示例都是一个带有“prompt”和“completion”键的JSON对象。此外,您必须上传带有目的的文件fine-tune
。
请查看微调指南以获取更多详细信息。
validation_file 字符串 可选的
上传的包含验证数据的文件ID。
如果您提供此文件,则在微调期间会定期使用该数据生成验证指标。这些指标可以在微调结果文件中查看。您的训练和验证数据应该是互斥的。
您的数据集必须格式化为JSONL文件,其中每个验证示例都是一个带有“prompt”和“completion”键的JSON对象。此外,您必须上传您的文件并注明其用途fine-tune
。
请查看微调指南以获取更多详细信息。
model 字符串 可选项 默认为curie
要微调的基础模型名称。您可以选择其中之一:"ada"、"babbage"、"curie"、"davinci",或2022年4月21日后创建的经过微调的模型。要了解这些模型的更多信息,请参阅“Models”文档。
n_epochs 整数 可选项 默认为4
训练模型的时期数。一个时期指的是完整地遍历一次训练数据集。
batch_size 整数 可选项 默认值为null
用于训练的批次大小。 批次大小是用于训练单个前向和后向传递的训练示例数量。
默认情况下,批处理大小将动态配置为训练集中示例数的约0.2%,上限为256-通常我们发现较大的数据集更适合使用较大的批量大小。
learning_rate_multiplier 数字 可选的 默认为 null
用于训练的学习率倍增器。微调学习率是预训练时使用的原始学习率乘以此值得到的。
默认情况下,学习率的倍增器为0.05、0.1或0.2,具体取决于最终结果batch_size
(较大的学习率往往在较大的批量大小下表现更好)。我们建议尝试使用0.02到0.2范围内的值,以查看哪些值能够产生最佳结果。
prompt_loss_weight 数字 可选项 默认为0.01
用于在提示标记上进行减重的权重。这控制了模型尝试学习生成提示的程度(与始终具有1.0权重的完成相比),并且可以在完成很短时为训练添加稳定效果。
如果提示非常长(相对于完成而言),则降低此权重可能是有意义的,以避免过度优先考虑学习提示。
compute_classification_metrics 布尔值 可选的 默认为false
如果设置了,我们会在每个 epoch 结束时使用验证集计算特定于分类的指标,例如准确率和 F-1 分数。这些指标可以在结果文件中查看。
为了计算分类指标,您必须提供一个validation_file
.此外,您必须指定classification_n_classes
用于多类分类或classification_positive_class
用于二元分类。
classification_n_classes 整数 可选项 默认值为null
分类任务中的类别数量。
这个参数在多分类任务中是必需的。
classification_positive_class 字符串 可选的 默认值为null
二元分类中的正类。
在进行二元分类时,需要此参数来生成精确度、召回率和 F1 指标。
classification_betas 数组 可选的 默认值为null
如果提供了这个参数,我们会在指定的beta值上计算F-beta分数。F-beta分数是F-1分数的一般化。这仅用于二元分类。
当beta为1时(即F-1分数),精确度和召回率被赋予相同的权重。较大的beta值更加注重召回率而不是精确度。较小的beta值更加注重精确度而不是召回率。
suffix 字符串 可选的 默认值为null
最多40个字符的字符串,将添加到您的微调模型名称中。
例如,一个suffix
为“custom-model-name”的模型名称将生成类似于的模型名称ada:ft-your-org:custom-model-name-2022-02-15-04-21-04
.
列出您的组织的微调工作。
获取有关微调作业的信息。
fine_tune_id 字符串 必填
微调作业的ID
立即取消微调工作。
fine_tune_id 字符串 必填
要取消微调作业的ID
获取微调作业的细粒度状态更新。
fine_tune_id 字符串 必填
获取事件的微调作业ID。
stream 布尔值 可选的 默认为false
是否为微调作业流式传输事件。如果设置为true,则事件将作为仅数据的服务器推送事件随时发送。该流将以"结束符号"终止data:[DONE]
当工作完成时的消息(成功、取消或失败)
如果设置为false,则只返回到目前为止生成的事件。
删除一个经过优化的模型。您必须在组织中拥有所有者角色。
model 字符串 必填
要删除的模型
内容审核
给定输入文本,输出模型是否将其分类为违反OpenAI的内容政策。
相关指南:内容审核
分类判断文本是否违反OpenAI的内容政策
input 字符串或数组 必填
要分类的输入文本
model 字符串 可选项 默认为text-moderation-latest
有两个内容审核模型可用:text-moderation-stable
和 text-moderation-latest
。
默认情况下,使用的是 text-moderation-latest
模型,该模型会随着时间自动升级。这确保您始终使用我们最准确的模型。如果您使用 text-moderation-stable
,则在更新模型之前我们将提供高级通知。text-moderation-stable
的准确性可能略低于 text-moderation-latest
。
引擎
引擎端点已被弃用。
请使用它们的替代品模型。了解更多信息。
这些端点描述并提供了API中可用的各种引擎的访问。
列出当前可用的(未经微调的)模型,并提供有关每个模型的基本信息,例如所有者和可用性。
检索模型实例,提供基本信息,如所有者和可用性。
engine_id 字符串 必填
用于此请求的引擎ID。
参数细节
频率和存在惩罚
在Completions API中发现的频率和存在惩罚可以用于减少采样重复令牌序列的可能性。它们通过直接修改logits(未归一化的对数概率)来进行加法贡献。
其中:
mu[j]
是第 j 个标记的对数概率 -c[j]
是在当前位置之前采样该标记的次数float(c[j] > 0)
如果c[j] > 0
则为1,否则为0alpha_frequency
是频率惩罚系数alpha_presence
是存在惩罚系数
正如我们所看到的,存在惩罚是一次性的加法贡献,适用于所有已经被采样至少一次的标记,并且频率惩罚是与特定标记已经被采样多少次成比例的贡献。
如果目标只是稍微减少重复采样,则惩罚系数的合理值约为0.1到1。如果目标是强烈抑制重复,则可以将系数增加到2,但这可能会明显降低样本质量。可以使用负值来增加重复出现的可能性。