OpenAI 的 GPT-4 现已全面上市

OpenAIs-GPT-4-is-Now-Generally-Available-750x375-1

OpenAI 宣布全面推出 GPT-4,它是最新的文本生成模型,能够生成与人类书写的文本没有区别的文本。

GPT-4 可通过OpenAI 的 APIChatGPT Plus 获得,ChatGPT Plus 是一项基于订阅的服务,允许用户在类似聊天的界面中与 GPT-4 进行交互。

OpenAI 推出 GPT-4 API

新发布的 GPT-4 可供具有 OpenAI API 有效订阅历史的开发人员使用。OpenAI还打算在本月底之前向新开发者开放访问权限,但有限制并逐步增加访问权限。

增强的功能和性能

GPT-4是其前身 GPT-3.5 的改进下一代模型。与仅接受文本输入的 GPT-3.5 不同,GPT-4 可以接受图像输入和所有其他旧的输入类型,并相应地生成文本或代码。这个新模型是由 OpenAI 利用公开数据(例如来自公共网页的数据和其他许可数据)进行训练的。

图像理解功能

如上所述,GPT-4 提供图像理解功能,并与单一合作伙伴 Be My Eyes 测试此功能,以增强智能功能。由于该公司尚未表明此功能的可用性,我们希望该功能尽快可用。

GPT-4可以更准确地解决难题

由于 GPT-4 的构建比以前的模型更具创新性和协作性,因此它可以与用户一起生成、编辑和迭代艺术和技术写作任务,包括歌曲创作、剧本创作以及更有效地理解用户的写作风格。方式。

creativity

下面给出了 GPT-4 如何接受图像作为输入并从中创建描述、分类和分析的示例。

image_input

GPT-4 可以处理超过 25,000 个单词的文本,支持长格式内容创建、冗长对话以及文档搜索和分析等用例。

longer_context

OpenAI 计划微调 GPT-4 以增强性能

总的来说,新的 GPT-4 模型也并非完美无缺。它可能会“幻觉”事实,犯逻辑错误,并且有时缺乏基于经验的学习,这会在解决复杂问题(例如在生成的代码中创建漏洞)时带来挑战。但它将生成比以前的模型更高效的代码。由于编码应该精确,这些模型无法生成防错代码。

在这种情况下,OpenAI 打算允许开发者对 GPT-4 进行微调。

OpenAI 提高效率的策略

除了 GPT-4 之外,OpenAI 还通过各自的 API 提供了图像生成模型 DALL-E 2 和语音转文本模型 Whisper。然而,为了最大限度地利用计算资源,OpenAI 打算弃用通过其 API 提供的旧模型。

从 2024 年 1 月 4 日开始,GPT-3 及其衍生产品将不再可用,取而代之的是新的“基础 GPT-3 ”模型,预计计算效率更高。仍在使用旧模型的开发人员必须在 1 月 4 日之前手动升级集成,而想要使用微调的旧模型的开发人员必须基于新的基本 GPT-3 模型微调替换版本。

OpenAI 向用户保证,它将在此过渡期间提供支持,并将向最近使用旧模型的开发人员提供帮助。

另请阅读:如何在 Azure OpenAI 服务上使用 GPT-4 和 ChatGPT

结论

OpenAI 的 GPT-4 是大型语言模型开发的重要一步。GPT-4 能够生成与人类书写的文本没有区别的文本,因此有可能彻底改变我们与计算机交互的方式。

原创文章,作者:网贝WebBay,如若转载,请注明出处:https://www.webbay.cn/openais-gpt-4-is-now-generally-available

error: Content is protected !!