Meta公司近期披露了其下一代人工智能模型的研发计划,代号为Mango的多模态模型及配套文本模型Avocado将成为2026年上半年的核心发布产品。这一战略动向标志着该公司在生成式AI领域的全面升级,旨在挑战OpenAI和谷歌的技术主导地位。
据内部会议透露,Mango模型专注于图像与视频内容的生成与理解,其功能设计对标行业标杆产品如OpenAI的Sora和谷歌的Veo。该模型可依据文本指令生成高质量静态图像或动态视频,例如输入”夕阳下的城市”即可输出具有叙事逻辑的连贯视频片段。Meta计划将其深度整合至Instagram、Facebook等社交平台,显著降低视觉内容创作门槛。
同步开发的Avocado语言模型则聚焦代码生成能力的突破,并尝试构建具备环境感知能力的”世界模型”。这种技术路径通过分析视觉数据理解物理规律,有望为机器人、自动驾驶等领域提供新型AI基础设施。两项研发均由Meta首席人工智能官Alexandr Wang领导的超级智能实验室推进,该部门在今年夏季重组后吸纳了来自竞争对手的20余名关键技术人才。
行业分析显示,Meta此次技术升级包含三重战略意图:首先是通过多模态整合打破现有技术壁垒,其二是构建覆盖工作娱乐的全场景AI生态,最终目标是实现”个人超级智能”的长期愿景。值得注意的是,该公司已与Midjourney达成合作测试视频生成工具Vibes,新模型发布后可能率先应用于广告投放和短视频生产场景。
当前全球AI竞赛已进入白热化阶段,Meta在Llama 4系列模型发布后迅速转向更激进的技术路线。尽管面临核心研究员流失等挑战,其依托社交平台海量数据构建的差异化优势,仍使Mango和Avocado的商用前景备受业界关注。
© 版权声明
文章版权归作者所有,未经允许请勿转载。