OpenAI重磅大更新:新增函数调用功能、降低使用成本,4元钱可以处理100页文本

190次阅读
没有评论

共计 1056 个字符,预计需要花费 3 分钟才能阅读完成。

OpenAI 在 6 月 13 日于官网宣布对其大型语言模型 API(包括 GPT-4 和 gpt-3.5-turbo)进行重大更新,包括新增函数调用功能、降低使用成本、以及为 gpt-3.5-turbo 模型提供 16000 个 token 的版本。OpenAI 的更新主要包括以下六个方面的内容:

  1. 在 Chat Completions API 新增函数调用(Function call)功能
  2. 改进了 gpt- 4 和 gpt-3.5-turbo 版本
  3. 更新了 gpt-3.5-turbo 的 16k 上下文版本
  4. 嵌入式模型降低了 75% 的成本
  5. gpt-3.5-turbo 的输入 tokens 成本减少了 25%
  6. 宣布了 gpt-3.5-turbo-0301 和 gpt-4-0314 模型的弃用时间表

OpenAI 重磅大更新:新增函数调用功能、降低使用成本,4 元钱可以处理 100 页文本

OpenAI 在博客文章中称,目前新增的函数调用功能允许开发人员向 GPT 描述编程函数,并让模型选择输出一个包含参数的 JSON 对象来调用这些函数。函数调用功能可以让开发者更容易地构建能够调用外部工具、将自然语言转换为外部 API 调用或进行数据库查询的聊天机器人。例如,它可以将“给 Anya 发邮件,看看她下周五是否想喝咖啡”这样的输入转换为“send_email (to: string, body: string)”这样的函数调用。尤其是,这个功能还可以让 API 用户更容易地生成 JSON 格式的输出,这是之前很难实现的。

OpenAI 重磅大更新:新增函数调用功能、降低使用成本,4 元钱可以处理 100 页文本

除了函数调用功能之外,OpenAI 还发布了 gpt-3.5-turbo-16k 模型。此前,由于使用者输入的文字内容过长,生成式 AI 模型往往会“忘记”一部分人机对话窗口的内容,从而导致生成的内容偏离主题,而 gpt-3.5-turbo 解决了该问题。

据悉,新版 gpt-3.5-turbo 支持 16000 tokens 的上下文长度,比目前的 gpt-3.5-turbo 要长 4 倍,而且使用者仅需高于普通 gpt-3.5-turbo 两倍的价格。简单来讲,使用者输入 1000 个 tokens 需要支付 0.003 美元,模型生成 1000 个 tokens,使用者需要支付 0.004 美元。

从 OpenAI 的介绍来看,20 页的文本的长度就等于 16000 tokens 的上下文长度,那 100 页文本的长度也就是 80000 tokens 的上下文长度。而处理一次文本需要经历输入 - 输出完整的过程,也就是说处理 1000 tokens 整体就是 0.007 美元,计算下来 100 页文本需要 0.56 美元(折合人民币约为 4 元)。

原文地址:https://openai.com/blog/function-calling-and-other-api-updates

正文完
关注公众号获取最新教程
post-qrcode
 
AI小诸葛
版权声明:本站原创文章,由 AI小诸葛 2023-06-15发表,共计1056字。
转载说明:除特殊说明外本站文章皆由原创发布,请勿转载。