(资料图)

IT之家 6 月 14 日消息,OpenAI 今日宣布对其大型语言模型 API(包括 GPT-4 和 gpt-3.5-turbo)进行重大更新,包括新增函数调用功能、降低使用成本、以及为 gpt-3.5-turbo 模型提供 16000 个 token 的版本。

大型语言模型(LLM)是一种能够处理自然语言的人工智能技术,它的“上下文窗口(context window)”相当于一个短期记忆,可以存储输入的内容或者聊天机器人的对话内容。在语言模型中,增加上下文窗口大小已经成为一种技术竞赛,Anthropic 公司最近宣布其 Claude 语言模型可以提供 75000 个 token 上下文窗口选项。此外,OpenAI 也开发了一个 32000 个 token 的 GPT-4 版本,但尚未公开推出。

OpenAI 刚刚推出了一个新的 16000 上下文窗口的 gpt-3.5-turbo 版本,名为“gpt-3.5-turbo-16k”,可以处理长度达到 16000 个 token 的输入,这意味着可以一次处理大约 20 页的文本,这对于需要模型处理和生成较大文本块的开发者来说是一个很大的提升。

除了这一变化之外,OpenAI 还列出了至少四个其他主要的新功能:

在 Chat Completions API 中引入函数调用功能 GPT-4 和 gpt-3.5-turbo 的改进版和“更易控(more steerable)”的版本 将“ada”嵌入模型的价格降低了 75% 将 gpt-3.5-turbo 模型的输入 token 价格降低了 25%

函数调用功能可以让开发者更容易地构建能够调用外部工具、将自然语言转换为外部 API 调用或进行数据库查询的聊天机器人。例如,它可以将“给 Anya 发邮件,看看她下周五是否想喝咖啡”这样的输入转换为“send_email (to: string, body: string)”这样的函数调用。尤其是,这个功能还可以让 API 用户更容易地生成 JSON 格式的输出,这是之前很难实现的。

关于“更易控”方面,这是一个指代如何让 LLM 按照你想要的方式行事的专业术语,OpenAI 表示其新的“gpt-3.5-turbo-0613”模型将包含“通过系统消息更可靠地控制”的功能。系统消息是 API 中一种特殊的指令输入,可以告诉模型如何行事,例如“你是格林姆斯,你只谈论奶昔。”

除了功能上的改进之外,OpenAI 还提供了相当大幅度的成本降低。值得注意的是,受欢迎的 gpt-3.5-turbo 模型的 token 价格降低了 25%。这意味着开发者现在可以以每 1000 个 token 约 0.0015 美元、每 1000 个 token 约 0.002 美元的价格使用这个模型,相当于每美元可以处理大约 700 页文本。gpt-3.5-turbo-16k 模型则定价为每 1000 个 token 0.003 美元、每 1000 个 token 0.004 美元。

此外IT之家注意到,OpenAI 还将其“text-embedding-ada-002”嵌入模型的价格降低了 75%。嵌入模型是一种让计算机理解单词和概念的技术,可以将自然语言转换为机器可以理解的数字语言,这对于搜索文本和推荐相关内容等任务很重要。

由于 OpenAI 不断更新其模型,旧的模型不会一直存在。今天,该公司还宣布开始淘汰一些早期版本的模型,包括 gpt-3.5-turbo-0301 和 gpt-4-0314。该公司表示,开发者可以继续使用这些模型直至 9 月 13 日,之后这些旧模型将不再可用。值得注意的是,OpenAI 的 GPT-4 API 仍然处于等待名单中,尚未完全开放。

推荐内容