解决OpenAI微调模型“模型不存在”错误的指南

27次阅读

解决 OpenAI 微调模型“模型不存在”错误的指南

在使用 openai微调模型时,若遇到“the model `xxxxx` does not exist”错误,通常是由于 api 端点选择不当。本教程将详细阐述如何根据微调模型的基础类型(gpt- 3 或gpt-3.5 turbo)选择正确的 api 端点(completions api 或 chat completions api),并提供相应的代码示例,确保您能成功调用您的微调模型。

理解 Openai微调模型的 API 调用机制

当您在 openai 平台上成功训练并部署了一个微调模型后,尝试通过 API 调用它时,可能会遇到“The model xxxxx does not exist”的错误提示,即使您已经确认该模型确实存在于您的账户中。这个问题的核心在于,不同基础模型(如 GPT- 3 系列和 GPT-3.5 Turbo)的微调模型需要使用不同的 API 端点进行调用。

核心问题:API 端点与模型类型的匹配

OpenAI 提供了两种主要的 API 端点用于文本生成:

  1. Completions API (/v1/completions):主要用于调用传统的 GPT- 3 系列模型(如 davinci-002, babbage-002)及其微调版本。
  2. Chat Completions API (/v1/chat/completions):专为对话式模型设计,主要用于调用 gpt-3.5-turbo、gpt- 4 及其微调版本。

在 2023 年 8 月 22 日之前,gpt-3.5-turbo 模型尚不支持微调,因此所有微调模型都基于传统的 GPT- 3 系列模型,必须通过 Completions API 调用。然而,自 2023 年 8 月 22 日起,OpenAI 正式开放了 gpt-3.5-turbo 的微调功能。这意味着:

  • 基于 gpt-3.5-turbo 微调的模型:应使用Chat Completions API (/v1/chat/completions)。
  • 基于 babbage-002 或 davinci-002 等传统 GPT- 3 模型微调的模型:仍需使用Completions API (/v1/completions)。

如果您在调用一个基于 GPT- 3 的微调模型时使用了 Chat Completions API,或者反之,就会收到“模型不存在”的错误。

解决方案:选择正确的 API 端点

要解决此问题,您需要根据您的微调模型所基于的基础模型类型,选择相应的 API 端点。

1. 确认微调模型的基础类型

当您的微调任务成功完成后,您可以通过查询微调任务的详情,查看 fine_tuned_model 字段。这个字段会显示您的微调模型的名称,其命名规则通常会暗示其基础模型。例如,ft-gpt-3.5-turbo-… 表示基于 gpt-3.5-turbo,而 ft-davinci-002-… 则表示基于 davinci-002。

2. 调用 API 的正确姿势

场景一:基于 GPT-3(如 babbage-002, davinci-002)的微调模型

对于这类模型,您必须使用 Completions API。请求体中应包含prompt 字段,而不是 messages 字段。

解决 OpenAI 微调模型“模型不存在”错误的指南

可图大模型

可图大模型(Kolors)是快手大模型团队自研打造的文生图 AI 大模型

解决 OpenAI 微调模型“模型不存在”错误的指南32

查看详情 解决 OpenAI 微调模型“模型不存在”错误的指南

node.js (使用 Axios)

const API_KEY = "YOUR_OPENAI_API_KEY"; const ORG_ID = "YOUR_OPENAI_ORG_ID"; // 组织 ID 可选,但建议提供  const headers = {"Content-Type": "application/json",   Authorization: "Bearer " + API_KEY,   // "OpenAI-Organization": ORG_ID, // 如果需要,请取消注释 };  const fineTunedModelName = "ft-your-gpt3-model"; // 替换为您的 GPT- 3 微调模型名称 const userPrompt = "Say this is a test"; // 替换为您的输入提示  try {const res = await axios.post("https://api.openai.com/v1/completions", // 注意:这里是 /v1/completions     {model: fineTunedModelName,       prompt: userPrompt, // 使用 'prompt' 字段       max_tokens: 50, // 根据需要调整},     {headers}   );   console.log(res.data.choices[0].text); } catch (error) {console.error("API Error:", error.response ? error.response.data : error.message); }

node.js (使用 OpenAI 官方库)

const {Configuration, OpenAIApi} = require("openai");  const configuration = new Configuration({apiKey: process.env.OPENAI_API_KEY,});  const openai = new OpenAIApi(configuration);  const fineTunedModelName = "ft-your-gpt3-model"; // 替换为您的 GPT- 3 微调模型名称 const userPrompt = "Say this is a test"; // 替换为您的输入提示  try {const response = await openai.createCompletion({     model: fineTunedModelName,     prompt: userPrompt,     max_tokens: 50,});   console.log(response.data.choices[0].text); } catch (error) {console.error("API Error:", error.response ? error.response.data : error.message); }

python

import os import openai  openai.api_key = os.getenv("OPENAI_API_KEY")  fine_tuned_model = "ft-your-gpt3-model" # 替换为您的 GPT- 3 微调模型名称 your_prompt = "Say this is a test" # 替换为您的输入提示  try:     response = openai.Completion.create(model=fine_tuned_model,         prompt=your_prompt,         max_tokens=50)     print(response.choices[0].text) except openai.error.OpenAIError as e:     print(f"API Error: {e}")

curl

curl https://api.openai.com/v1/completions    -H "Authorization: Bearer $OPENAI_API_KEY"    -H "Content-Type: application/json"    -d '{"model": "ft-your-gpt3-model",     "prompt": "Say this is a test",     "max_tokens": 50}'

场景二:基于 GPT-3.5 Turbo 的微调模型

对于这类模型,您应该使用Chat Completions API。请求体中应包含 messages 数组,以对话格式提供输入。

Node.js (使用 axios)

const API_KEY = "YOUR_OPENAI_API_KEY"; const ORG_ID = "YOUR_OPENAI_ORG_ID"; // 组织 ID 可选,但建议提供  const headers = {"Content-Type": "application/json",   Authorization: "Bearer " + API_KEY,   // "OpenAI-Organization": ORG_ID, // 如果需要,请取消注释};  const fineTunedModelName = "ft-your-gpt35-turbo-model"; // 替换为您的 GPT-3.5 Turbo 微调模型名称 const userMessage = "Hello, what is your name?"; // 替换为您的用户消息  try {const res = await axios.post(     "https://api.openai.com/v1/chat/completions", // 注意:这里是 /v1/chat/completions     {       model: fineTunedModelName,       messages: [ // 使用 'messages' 字段         { role: "system", content: "You are a helpful assistant."},         {role: "user", content: userMessage},       ],       max_tokens: 50, // 根据需要调整     },     {headers}   );   console.log(res.data.choices[0].message.content); } catch (error) {console.error("API Error:", error.response ? error.response.data : error.message); }

注意事项与总结

  1. 检查模型基础类型:在调用微调模型之前,务必确认它是基于 GPT- 3 系列还是 GPT-3.5 Turbo。这通常可以在您的 OpenAI 账户中,通过查看微调任务的详细信息来获取。
  2. API 端点匹配
    • GPT- 3 微调模型 (babbage-002, davinci-002 等) → https://api.openai.com/v1/completions
    • GPT-3.5 Turbo 微调模型 (gpt-3.5-turbo 等) → https://api.openai.com/v1/chat/completions
  3. 请求体结构
    • Completions API 使用 prompt 字段。
    • Chat Completions API 使用 messages 数组,其中包含 role 和 content 字段。
  4. API Key 和组织 ID:确保您的 OPENAI_API_KEY 和 OPENAI_ORGANIZATION(如果使用)是正确且有效的。

通过遵循这些指南,您将能够准确无误地调用您的 OpenAI 微调模型,避免“模型不存在”的常见错误,并充分利用微调模型在特定任务上的优化表现。始终建议查阅 OpenAI 的官方文档以获取最新和最详细的 API 使用信息。

站长
版权声明:本站原创文章,由 站长 2025-10-25发表,共计4338字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
1a44ec70fbfb7ca70432d56d3e5ef742
text=ZqhQzanResources