就在昨天凌晨,OpenAI发布了多模态预训练大模型GPT-4。
这不昨天一觉醒来,GPT-4都快刷屏了,不管是在朋友圈还是网络上都看到了很多信息和文章。
GPT是Generative Pre-trained Transformer的缩写,也即生成型预训练变换模型的意思。
OpenAI在公告中写道,GPT-4是一个多模态大模型,也是OpenAI努力扩展深度学习最新的里程碑。
OpenAI的CEO也说这是他们到目前为止功能最强大的模型。
相信这两天大家在网络上看到的信息比较多也比较杂,关于GPT-4,我们这里也总结了几个比较关键的点。
<>1、支持视觉输入
GPT-4拥有多模态能力,现在可以接受图像输入并理解图像内容,这也是这次发布比较有吸引力的一个点。
比如官方给出了一个示例,给出一幅图,手套掉下去会怎么样?
GPT-4可以理解并输出给到:它会掉到木板上,并且球会被弹飞。
再比如给GPT-4一个长相奇怪的充电器图片,问为什么这很可笑?
GPT-4回答道,VGA 线充 iPhone。
另外GPT-4也可以识别与解析图片内容,比如直接将论文截图后丢给GPT-4,它就可以自动对其进行理解和分析。
用户甚至还可以直接画一个网站草图拍照丢给GPT-4,它就可以立马帮助生成代码。
<>2、文字输入限制提升
GPT-4的文字输入限制进一步提升,得益于此,GPT-4的实用性也进一步扩展。比如发布会直播上OpenAI总裁现场演示了一波GPT-4给代码修Bug。
用户可以直接把万字的程序文档丢给GPT-4等着解决方法。
<>3、性能提升
在正常的对话过程中,对于GPT-3.5和GPT-4之间的区别感知可能很微妙,但是当处理一些复杂输入时GPT-4的优势会更明显。
团队表示,GPT-4在各种专业测试和学术基准上的表现与人类水平相当,其中一个数据就是它通过了模拟律师考试,且分数在应试者的前10%左右,而此前发布的GPT-3.5,则处于倒数10%的行列。
OpenAI也在那些为机器学习模型设计的传统基准上评估了GPT-4。从实验结果来看,GPT-4 大大优于现有的大型语言模型,以及大多数SOTA模型。
<>4、依然有限制性
尽管这次发布的GPT-4表现出了很强大的能力,但是官方依然表示GPT-4与早期的GPT模型具有相似的局限性,并不是绝对可靠。
官方表示使用这些语言模型时还是要谨慎审查其输出内容,必要时使用与特定用例的需求相匹配的确切协议(例如人工审查、附加上下文或完全避免高风险场景下的使用) 。
GPT-4仍然可能会产生幻觉、生成错误答案,并出现推理错误,所以团队这也是提前给打了一个预防针。
虽然这仍然是一个问题,但GPT-4相较于于以前的模型显著减少了“幻觉”。在内部的对抗性真实性评估中,GPT-4的得分比最新的GPT-3.5高40%。
<>5、关于使用
聊了这么多,普通用户要想使用上GPT-4估计还要再等等。
目前是只有ChatGPT Plus付费订阅会员才可以试用GPT-4,且试用阶段每四小时最多发100条信息。
而且目前来说,用户依然只能发出纯文本信息,像图像等一些视觉输入功能估计后续才会放开使用。
目前OpenAI仅仅是开放了GPT-4 API的申请通道。
用户如果想要使用的话,可以先提申请加入waitlist列表等待通过。
<>6、关于GPT-4论文
关于GPT-4发布的细节和技术,官方也给出了一个pdf版本的详细技术报告,有兴趣的小伙伴可以自行查看。
总而言之,这两天看到太多有关GPT-4的信息,不知道为啥心里总有一种说不出来的感觉。
我不知道怎么样去描述这种感受,但是我想起来之前发的一篇文章评论区一位小伙伴的留言:
“突然感觉向未来迈出了一步是怎么回事”
好了,今天的分享就先到这里吧,我们下期见。