OpenAI正式发布GPT-4 变身无所不能的人工智能

强大的识图能力;文字输入限制提升至2 5万字;回答准确性显著提高;能够生成歌词、创意文本,实现风格变化

3月15日,人工智能公司OpenAI正式发布了多模态模型GPT-4。相比之前的产品,官方称,GPT-4实现了以下几个方面的飞跃式提升:强大的识图能力;文字输入限制提升至2.5万字;回答准确性显著提高;能够生成歌词、创意文本,实现风格变化。

总体来说,GPT-4在文本和图像方面的“多模态”训练将使它能够摆脱聊天框,更充分地模拟一个拥有色彩和图像的世界,在其“高级推理能力”方面超过ChatGPT。一个人可以上传一张图片,而GPT-4可以为其添加标题,描述物体和场景。

识别图像 做到看图说话

OpenAI的总裁和联合创始人Greg Brockman,就亲自在YouTube上进行了一把直播,来实时演示Live Demo中,展示了GPT-4的真正实力,GPT-3.5做不到的, GPT-4轻松拿下。

GPT-4的识图能力也很强,当看到一张悬挂在木制跷跷板上的拳击手套的照片时,一个人可以问如果手套掉下来会发生什么,GPT-4会回答说它会撞击跷跷板并导致球飞起来。

当给出一张冰箱里放满蔬菜的图片后,在下面提问,用上面的蔬菜能制作什么晚餐的时候,GPT-4会回答说,可以制作沙拉等。随后还详细列出来制作的步骤。

在提供的案例中,同样可以看出GPT-4可以同时解析文本和图像,这也使它能够解释更复杂的信息。不过,目前图像输入的权限尚未公开,所以目前还没看到更多例子来证明GPT-4在图像方面的处理能力。

随后举行的Live Demo中,OpenAI也表示,还没有公开提供这部分技术,但已经在和一家名为Be My Eyes的公司进行合作,对方会使用GPT-4来构建服务。

拆分变身 做到无所不能

Greg Brockman在视频中展示了GPT-4的新的使用界面,左侧是系统框,可以规定AI的角色,以及整体的回答原则,中间则是对话框,可以输入具体的对话形态来对具体的内容进行调整、追问或者给出反馈。最右侧是一些参数设置。

在演示中,Brockman就使用使用左侧的“系统”框,让GPT-4相继成为“ChatGPT”、“AI编程助手”、“TaxGPT”,来解决不同的问题。ChatGPT模式下,GPT-4可以处理超过2.5万字的文本,可以轻松地总结一篇超长文章的核心内容,比如把OpenAI今天发布的这篇讲述GPT-4的雄文总结要点。

在演示中,在“AI编程助手”模式下,还可以让它轻松写代码,生成一个网站,或者更复杂的,写一个基于Discord的机器人,如果出现错误,比如要调用比较新的API而出错,甚至也不需要向它解释,而是把错误代码复制进去,它就会自动纠错,生成新的代码。

除此之外,GPT-4还能做到总结文章、写代码、报税、写诗……可以说是无所不能。

能力变强 学习能力再精进

虽然GPT-4对于许多现实场景的处理比人类差,但它在各种体现专业和学术能力的 benchmark 上,已表现出和人类相当的水平。

GPT-4在其他语言上的能力,OpenAI使用 Azure Translate,将一套涵盖57个主题的1.4万多项选择题的MMLU基准,翻译成了多种语言,然后进行测试。

在测试的26种语言中,有24种语言,GPT-4优于 GPT-3.5和其他大语言模型的英语语言性能。其中中文达到了80.1%的准确性,而GPT-3.5的英文的准确性为70.1%,也就是说,在这个测试中,GPT-4对于中文的语言理解,已经优于此前ChatGPT对于英文的理解。

官方公布的数据显示,GPT-4通过了模拟律师考试,其分数在应试者的前 10% 左右;相比之下,GPT-3.5的得分却在倒数 10% 左右。OpenAI表示,他们花了6个月的时间来使用对抗性测试程序,以及通过 ChatGPT 的经验教训迭代调整GPT-4,从而在真实性和可控性等方面取得了有史以来最好的结果。

写在最后:

随着ChatGPT已经发展到基本上“适用于所有语言”,该技术和应用已经挑战产业对于AI的认知,但行业的迅速发展,正如预测的那样,这些人工智能语言模型的广泛可用性带来了问题和挑战。

在宣布GPT-4时,OpenAI强调该系统已经过六个月的安全培训,在内部测试中,“响应不允许内容请求的可能性降低了82%,产生事实响应的可能性比GPT-40.3高出5%。但是,这并不意味着系统不会犯错误或输出有害内容。GPT-4也仍然缺乏对2021年9月“绝大部分数据切断后发生的事件”的了解。

原创文章,作者:苹果派,如若转载,请注明出处:https://www.kejixun.com/article/570137.html

(0)
苹果派的头像苹果派管理团队

相关推荐