GPT4o可检测人的情绪 北京时间周二凌晨1点,OpenAI在久违的春季发布会上,由首席技术官米拉·穆拉蒂揭晓了与ChatGPT相关的多项更新。发布会核心内容包括两项重大进展:一是推出了GPT-4o多模态大模型,此模型相较于GPT-4 Turbo在速度及成本上均有优化;二是宣布ChatGPT的免费用户也能享受到GPT-4o带来的升级体验,如数据分析、图像分析等功能,这无疑将极大拓展GPT应用商店的用户基础。

对于付费用户,OpenAI提升了消息限制,至少是免费用户限额的五倍。当免费用户额度耗尽后,系统将自动降级至GPT-3.5。未来一个月内,Plus用户还将迎来基于GPT-4o优化的语音体验,尽管当前GPT-4o API尚不包含语音功能。此外,macOS用户将率先获得ChatGPT桌面应用,Windows版本预计年内推出。

米拉·穆拉蒂在直播中强调,这是公司在易用性方面取得的重要进步。OpenAI,这家估值超800亿美元的微软支持企业,正努力维持其在生成式AI市场的领先地位,并探索盈利途径,以平衡巨额的硬件与基础设施投资。GPT4o可检测人的情绪。
 GPT-4o在实时语音和音频处理的安全性方面展现出亮点,如准确识别用户情绪、进行实时口译等。演示中,GPT-4o不仅作为数学辅导助手,还能即时翻译意大利语,并尝试通过面部表情识别情绪,尽管这项功能尚存挑战。OpenAI透露,GPT-4o能与代码库互动,分析数据图表,并基于文本及图像输入提供反馈,语音和视频功能也将逐步上线。 1
|