编译 | 周炎
(资料图片仅供参考)
编辑 | 云鹏
智东西6月14日报道,就在今天凌晨,OpenAI事先毫无预告地发布了ChatGPT的重大更新。
从官网信息梳理来看,OpenAI的更新主要包括以下六个方面的内容:
1.在Chat Completions API新增函数调用(Function call)功能
2.改进了gpt-4和gpt-3.5-turbo版本
3.更新了gpt-3.5-turbo的16k上下文版本
4.嵌入式模型降低了75%的成本
5.gpt-3.5-turbo的输入tokens成本减少了25%
6.宣布了gpt-3.5-turbo-0301和 gpt-4-0314模型的弃用时间表
可以看到,生成式AI领域的竞争越来越激烈,OpenAI不断加速迭代其AI大模型,同时降低其成本。
OpenAI在博客文章中称,目前新增的函数调用功能允许开发人员向GPT描述编程函数,并让模型选择输出一个包含参数的JSON对象来调用这些函数。
举一个简单的例子,开发者通过与聊天机器人“对话”,GPT随后能够知道何时要需要用外部工具来解决问题,即GPT可以将自然语言转换为数据库查询,并从文本中提取结构化数据,而不再需要开发者花费大量时间对其输入相关描述内容,同时,这也将进一步提升GPT的正确率。OpenAI此次还发布了gpt-4-0613和gpt-3.5-turbo-0613改进模型,两者均支持函数调用功能。
▲函数调用功能演示,来源:OpenAI官网
除了函数调用功能之外,OpenAI 还发布了gpt-3.5-turbo-16k模型。此前,由于使用者输入的文字内容过长,生成式AI模型往往会“忘记”一部分人机对话窗口的内容,从而导致生成的内容偏离主题,而gpt-3.5-turbo解决了该问题。
据悉,新版gpt-3.5-turbo支持16000 tokens的上下文长度,比目前的gpt-3.5-turbo要长4倍,而且使用者仅需高于普通gpt-3.5-turbo两倍的价格。简单来讲,使用者输入1000个tokens需要支付0.003美元,模型生成1000个tokens,使用者需要支付0.004美元。
从OpenAI的介绍来看,20页的文本的长度就等于16000 tokens的上下文长度,那100页文本的长度也就是80000 tokens的上下文长度。而处理一次文本需要经历输入-输出完整的过程,也就是说处理1000 tokens整体就是0.007美元,计算下来100页文本需要0.56美元(折合人民币约为4元)。
▲GPT-3.5-turbo介绍,来源:OpenAI官网
OpenAI称,新版gpt-3.5-turbo一次可以摄取大约20页的文本。目前来看,就文本处理上,新版gpt-3.5-turbo明显低于AI初创公司Anthropic可以处理的数百页文本的模型。据悉,OpenAI正在测试具有32000个tokens上下文长度的GPT-4版本,但该版本仅限于有限发布。
OpenAI称,它正在将原始版本gpt-3.5-turbo的价格降低25%。开发人员现在可以以0.0015美元每1000个输入tokens和每0.002美元1000个输出tokens的价格使用该模型。
此外,OpenAI的text-embedding-ada-002的定价也有所降低,这是OpenAI的文本嵌入模型之一。Text-embedding-ada-002现在每1000个tokens的价格为0.0001美元,比之前的价格降低了75%。
OpenAI称,Text-embedding-ada-002价格的降低是通过提高其系统效率实现的。文本嵌入模型是OpenAI重点关注的关键领域,它曾在文本嵌入模型的研发和基础设施上花费了数亿美元。
近期,OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)重申OpenAI尚未开始训练GPT-4的“继任者”,这表明该公司在开始该模型之前“还有很多工作要做”。
结语:生成式AI竞争激烈,“增效降本”成OpenAI重要优化方向
随着全球科技大厂接连推出自家的AI大模型后,生成式AI竞争愈加激烈,OpenAI此次宣布的重要更新,不论是新增的函数调用功能,还是gp t-3.5-turbo能够理解更长的输入内容,都将为OpenAI的生成式AI模型提升竞争力。
此外,OpenAI此次还宣布了降低价格,这也将进一步影响其他科技大厂对AI大模型接入成本的调整。
标签: