北京时间14日凌晨,OpenAI公司在美国加州举办新品发布会,推出一款名为GPT-4o(欧)的人工智能模型。公司表示,新模型具备“听、看、说”的出色本领。发布会上,OpenAI公司展示了新模型的多个应用场景。

据介绍,GPT-4o(欧)的“o”源自拉丁语,意思是“全能”(字幕:omni,全能),新模型能够处理50种不同的语言,提高了速度和质量,并能够读取人的情绪。

新模型可以在最短232毫秒对音频输入做出反应,与人类在对话中的反应时间相近。即使对话被打断,新模型也可以做出自然反应。这是此前人工智能语音聊天机器人做不到的。

图像输入方面,研究人员启动摄像头,要求实时完成一道方程题,新模型轻松完成了任务;研究人员还展示了它对一张气温图表进行实时解读的能力。

OpenAI公司研究人员 巴雷特:ChatGPT,我正在和你分享这张图表。你能否用非常简短的一句话概括你所看到的?

人工智能模型GPT-4o:这张图表显示了2018年全年的平均、最低和最高温度。一个明显的注释显示,9月下旬曾下过一场大雨。

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com