來源:IT之家
OpenAI 昨日凌晨發(fā)布 GPT-4o 模型,可以視為 GPT-4 的升級版本,可以實時推理處理音頻、視覺和文本內(nèi)容,而且能更加無縫地和 ChatGPT 交互。
OpenAI 總裁兼聯(lián)合創(chuàng)始人格雷格布羅克曼(Greg Brockman)隨后發(fā)布了上手演示,讓兩臺運行 GPT-4o 的設(shè)備進行語音或視頻交互。
布羅克曼在演示開始之前,表達了自己的期望:讓兩臺 AI 聊天機器人互相交流。布羅克曼向其中 A 聊天機器人講述了他的期望,并讓 B 聊天機器人可以調(diào)用攝像頭觀察周圍世界。
B 聊天機器人會調(diào)用前置攝像頭,并清晰地描繪出用戶的穿著和所處的環(huán)境。然后 A 聊天機器人可以與它對話并提出問題,包括移動攝像頭和它所看到的內(nèi)容。
對話中,新版本 ChatGPT 不僅能通過視覺 AI 能力理解攝像頭中發(fā)生的事情,同時還能夠?qū)⒗斫獾膬?nèi)容通過語音交互,進行更加豐富有趣的互動,同時還支持中途打斷和對話插入,且具備上下文記憶能力。