HumanOmni 是专注于人类中心场景的多模态大模型,视觉和听觉模态融合而成。通过处理视频、音频或两者的结合输入,能全面理解人类行为、情感和交互。模型基于超过240万视频片段和1400万条指令进行预训练,采用动态权重调整机制,根据不同场景灵活融合视觉和听觉信息。HumanOmni 在情感识别、面部描述和等方面表现出色,适用于电影分析、特写视频解读和实拍视频理解等多种场景。

HumanOmni – 阿里通义等推出专注人类中心场景的多模态大模型  第1张
(图片来源网络,侵删)
HumanOmni – 阿里通义等推出专注人类中心场景的多模态大模型  第2张
(图片来源网络,侵删)