ChatGPT大更新!API新增杀手级能力还降价,新模型、4倍上下文都来

推荐使用ChatGPT4.0中文网,国内可直接访问:www.chatgp4.com

ChatGPT在一夜之间再次迎来进化,OpenAI也一口气推出了一系列重磅更新!

核心更新:函数调用能力

这次更新的核心在于API新增了函数调用(Function calling)能力,这与网页版的插件功能类似,API现在也能使用外部工具了。这意味着开发者可以利用这一功能,解决ChatGPT API原本无法提供的能力。许多人认为,这是个杀手级特性,也是自ChatGPT API发布以来最重要的更新之一。

不仅如此,这次关于ChatGPT API的所有更新都具有极大影响力,功能增强的同时,价格还大幅降低:

  • 新版本gpt-4-0613和gpt-3.5-turbo-0613模型已推出。
  • gpt-3.5-turbo的上下文长度从4k增加到16k,增长了400%。
  • gpt-3.5-turbo的输入token价格降低了25%。
  • 最先进的embedding模型降价75%。
  • GPT-4 API将大规模开放,直至清空排队列表。

此消息一传出,国内用户纷纷表示这是对国内大模型市场的重大挑战。

自动化的智能决策

根据OpenAI的官方介绍,函数调用同样适用于新版GPT-4和GPT-3.5。开发者只需描述模型所需的函数,模型将根据提示词自动决定何时调用哪个函数。这一机制与ChatGPT调用插件的方式相似。具体的使用方法,官方提供了以下三个例子:

  1. 聊天机器人调用外部API执行操作或回答问题,如“给某人发邮件”或“今天的天气如何?”。
  2. 将自然语言转换为API调用或数据库查询,例如“上个月有多少订单?”会自动生成相应的SQL查询语句。
  3. 从文本中自动提取结构化数据,比如只需定义好需要提取的“人名、生日、位置”,并提供一个网页链接,就可以自动提取维基百科文章中的所有人物信息。

这一新功能的推出,让广大网友尤其是开发者欢呼不已,认为工作效率将得以显著提升。以往,想通过GPT调用函数需要借助LangChain等工具,而现在这些功能得以直接通过API实现。

更新版本与价格调整

目前,新版本模型正在逐步推出。最新版gpt-4-0613、gpt-3.5-turbo-0613及扩充上下文长度的gpt-4-32k-0613都支持函数调用,而gpt-3.5-turbo-16k则不支持函数调用,但提供了四倍的上下文长度,可以处理约20页的文本。旧模型也在逐步淘汰,其初始版本应用将于6月27日自动升级至新版本,开发者如需更多时间过渡,也可手动选择继续使用旧版本,然而从9月13日起,所有旧版本请求将彻底废弃。

在价格方面,OpenAI不仅没有上调,反而下调了价格。首先,gpt-3.5-turbo(4k token版)输入token的价格降低了25%,目前为0.0015美元每千token,输出token每千token为0.002美元。换算下来,大约是1美元可处理700页英语文本。嵌入模型的价格更是大幅下调,降至75%,每千token仅需0.0001美元,即1美元可处理一千万token。

此外,推出的新16K token版GPT-3.5-Turbo提供了比4K版本四倍的处理能力,但价格仅为两倍,输入和输出token价格分别为0.003和0.004美元每千token。值得一提的是,有些网友反馈,当月账单直接从100美元降至几美分,具体原因尚不清楚。

面临的挑战

不少网友指出,OpenAI推出的“函数调用”功能与LangChain中的“工具”功能几乎是一个翻版。未来,OpenAI还有可能继续引入更多LangChain的功能,如链(Chains)和索引(Indexes)。

LangChain作为大模型领域最热门的开源开发框架,最近也获得了1000万美元的种子轮融资。尽管OpenAI的这一更新并不足以“杀死”LangChain,但开发者们原本需要LangChain才能实现的功能,现在已不再必要。

LangChain方面的反应也同样敏捷。在OpenAI官推发布更新的10分钟内,LangChain立即宣布正在进行兼容工作,并在不到一个小时内发布了新版本,支持官方新功能,还能将已写好的工具转换为OpenAI的函数。网友们对这一快速的开发速度感到惊讶,同时也不禁思考:如果OpenAI把你的创业项目纳入旗下,你该怎么办?

对此,OpenAI首席执行官Sam Altman曾在5月底的Humanloop交流会上表示,除了ChatGPT类型的消费级应用,OpenAI会尽量避免与客户竞争。尽管如此,开发工具似乎不在该限制范围之内。而除了创业公司,OpenAI还面临着微软的竞争,作为其最大金主,微软通过Azure云也提供OpenAI的API服务。最近,一些开发者反馈,从OpenAI的官方API切换到微软Azure版本后,性能显著提升:

  • 中位延迟从15秒降至3秒
  • 第95百分位延迟从60秒降至15秒
  • 平均每秒处理的token数量增加了三倍,从8个增至24个。

再加上Azure的一些折扣,整体使用成本甚至低于原先。

总的来说,OpenAI的更新频率和功能扩展为开发者们带来了更为便捷的使用体验,而随着市场竞争的加剧,未来的发展趋势将更加值得关注。

如果你还没有申请GPT-4 API的测试资格,别忘了尽快去排队哦!

更新公告

OpenAI 更新公告

API排队申请

申请链接

滚动至顶部