ChatGPT全新进化,程序员狂欢!

人工智能1年前发布 CrushiY
22 00

点击参加51CTO网站内容调查问卷

作者 | Atty Eleti、Jeff Harris、Logan Kilpatrick

编译 | 王瑞平、言征

OpenAI火力全开,对于开发者这个庞大的市场,当然不会“一招鲜”式地收割!就在昨天,OpenAI又放狠招了!

当地时间6月13日,OpenAI重磅发布更新版GPT-3.5 Turbo和GPT-4模型,API新增函数调用功能。

更可怕的是,它还进行了API其它方面的更新,包括更多可控的API模型、其它功能调用能力、更长的上下文和更低的价格,将嵌入模型成本降低了75%、GPT-3.5 Turbo的tokens输入成本降低了25%。

“今年早些时候,我们发布了GPT-3.5 Turbo和GPT-4。在短短几个月内,开发人员就在这些型号的基础上构建出令人难以置信的新应用程序,”Open AI在官网上表示。

一、更安全:包含用户确认步骤

自从ChatGPT的Alpha插件版本发布以来,OpenAI已经熟知如何让AI工具和语言模型安全有效地协同工作。

然而,仍有安全问题与漏洞频频出现。对此,OpenAI回应:“我们正努力减轻安全风险带来的损失。开发人员可以只使用程序中的可信工具。”

为在源头控制安全问题的发生,OpenAI将程序设置为:在执行具有实际影响的操作(如,发送电子邮件、在线发帖或购买)之前包含用户确认步骤,用来维护应用程序的安全性。

二、新模型:GPT-4 与 GPT-3.5 Turbo

当然,你一定更关心这两种新模型究竟在哪些方面进行了更新,OpenAI同样提供了详细说明:

1.GPT-4

GPT-4-0613包括更新和改进的模型与函数调用。

GPT-4-32k-0613则包括与GPT-4-0613相同的改进功能,并扩展了上下文长度,以便更好理解较大的文本。

“有了这些更新,我们将在未来几周从候补名单中邀请更多的用户尝试GPT-4,并打算借此机会完全删除候补名单。感谢所有耐心等待的开发者,我们很高兴看到你们使用GPT-4,”OpenAI在官网上对用户说。

2.GPT-3.5 Turbo

GPT-3.5-turbo-0613具有与GPT-4相同的调用能力。通过系统提示消息,它展现出更可靠的操作性能。这两个功能允许开发人员更有效控制模型响应。

GPT-3.5-turbo-16k的上下文长度是GPT-3.5-turbo的4倍,价格是GPT-3.5-turbo的两倍。每1K tokens输入成本0.003美元,输出成本0.004美元。16k上下文可以在每个请求中支持约20页的文本。

三、程序员:访问新模型,弃用旧版本

“今天,我们将开始升级和弃用3月份发布的 GPT-4 和 GPT-3.5 Turbo 初始版本。”

GPT-3.5 Turbo,GPT-4和GPT-4-32k应用程序将在6月27日自动升级成上述新型号。为比较不同版本模型的性能,OpenAI的Evals库支持公共和私有评估,以体现出模型的更改将如何影响用户使用。

需要更多时间过渡的开发人员可以自由选择GPT-3.5-turbo-0301、GPT-4-0314或GPT-4-32k-0314等旧型号。

总之,根据OpenAI的指示,你可以在9月13日之前访问旧型号,并通过模型弃用页面了解最新信息。

四、函数调用:方便API使用外部工具

OpenAI在一篇博客文章中透露:“函数调用功能允许开发人员向GPT-3.5 Turbo和GPT-4提供编程函数,并让模型创建代码来执行这些函数。”

例如,函数调用功能可以帮助创建聊天机器人。这些聊天机器人可以通过调用外部工具回答问题,将自然语言转换为数据库查询功能,并从文本中提取结构化数据。

OpenAI在官网上还表示:“这些模型经过了微调可以检测何时需要调用函数。函数调用允许开发人员更可靠地从模型中获取结构化数据。”

有了函数调用功能,开发人员可以向GPT-4-0613和GPT-3.5-turbo-0613描述函数并让模型智能化选择输出包含调用这些函数参数的JSON对象,更可靠地将GPT功能与外部工具和API连接起来。

微调后的模型可根据用户输入检测何时需要调用函数。函数调用功能则允许开发人员更可靠地从模型中获得结构化数据。

例如,开发人员可以创建聊天机器人,通过调用外部工具回答问题,也可以将自然语言转换为API调用或数据库查询或者从文本中提取结构化数据。

上述应用通过/v1/chat/completions端点中的新API参数、functions和function_call实现,允许开发人员通过JSON Schema向模型描述函数并有选择性地要求它调用特定函数。

五、开发者参考:函数调用示例

当你输入:现在Boston天气如何?

步骤1:OpenAI API用函数和用户输入调用模型

请求和响应如下:

ChatGPT全新进化,程序员狂欢!

Request

ChatGPT全新进化,程序员狂欢!

Response

步骤2:第三方API使用模型响应调用API

ChatGPT全新进化,程序员狂欢!

         Request         

ChatGPT全新进化,程序员狂欢!

Response

步骤3:OpenAI API将响应发送回模型进行汇总

ChatGPT全新进化,程序员狂欢!

Request

ChatGPT全新进化,程序员狂欢!

Response

函数调用后会输出结果:Boston目前天气晴朗,气温为22摄氏度。

六、引入新风格:扩展上下文窗口,读取文本数增多

除了函数调用功能,OpenAI在GPT-3.5 Turbo中引入了新的风格,大大扩展了上下文窗口。

上下文窗口的大小以标记的多少或原始文本位置衡量,指的是模型在生成任何附加文本之前曾进行的文本考量。具有较小上下文窗口的模型更容易“忘记”(甚至是最近的对话内容),这会导致输出的文本偏离主题。

从价格角度来看,新GPT-3.5 Turbo提供的上下文长度(16,000个token)是旧版本GPT-3.5 Turbo的4倍,价格是其2倍。其中,每1000个输入模型token 0.003美元,每1000个输出模型token 0.004美元。

OpenAI介绍,新版本模型可一次性读取大约20页文本,而人工智能初创公司Anthropic的旗舰模型可以处理数百页文本。(OpenAI也正在测试GPT-4其中的一个版本,该版本拥有32,000个令牌上下文窗口,但只能进行有限次发布。)

七、降价:为开发人员节约使用成本

“未来,我们将继续使模型变得更高效,并将节省的成本回馈给开发人员。”

OpenAI把原始版本GPT 3.5的价格降低了25%。开发人员可以只为每1000个tokens输入支付0.0015美元,每1000个tokens输出支付0.002美元,这相当于每美元约700页文本。

此外,公司最流行的文本嵌入模型text- embedting-ada-002的价格也有所降低。它通常用于文本的搜索和推荐。如前文所述,现在,它每1000个tokens的价格为0.0001美元,相较于之前的价格降低了75%。

OpenAI表示,成本的减少是由于其模型效率逐渐升高。毫无疑问,这是公司关注的关键领域,也为此在研发和基础设施上花费了数亿美元。

八、写在最后:得开发者得天下

“开发者的反馈是平台发展的基石,我们将继续根据建议进行改进。很高兴看到开发人员使用最新的模型和新功能。”OpenAI表示。

自3月初发布GPT-4之后,一直将重点放在对现有模型进行更新而不是大规模从头开始构建新模型。

最近,在由《经济时报》主办的一次会议上,OpenAI首席执行官Sam Altman重申:“公司尚未开始培训GPT-4继任者。在启动该模型之前,公司还有很多工作要做。”

参考资料:

1.https://www.zdnet.com/article/gpt-3-5-vs-gpt-4-is-chatgpt-plus-worth-its-subscription-fee/

2.https://openai.com/blog/function-calling-and-other-api-updates

© 版权声明

相关文章