上海AI独角兽MiniMax近日发布的全新音乐生成模型Music 2.0引发行业广泛关注。该模型于10月31日正式亮相,作为公司全模态技术矩阵的重要组成部分,标志着AI音乐生成技术迈入新阶段。
Music 2.0在人声合成领域取得突破性进展,其生成的音色无限接近真实人声,能够精准捕捉演唱者的细腻情绪变化。技术团队通过创新算法,使模型可驾驭流行、美声、民谣等多种唱法,并支持男女声部对唱、阿卡贝拉等复杂演唱形式。值得注意的是,该模型具备”一声千变”特性,可在保持核心音色的前提下实现不同唱法的自由切换。
在音乐创作维度,Music 2.0展现出专业制作水准。模型生成的歌曲包含完整的主歌、副歌、桥段结构,单曲时长最长可达5分钟。其生成的旋律兼具记忆点与艺术性,能根据指令精准控制不同乐器的层次编排,实现律动自然的专业级编曲效果。测试显示,该模型对爵士、摇滚、电子等不同风格的音乐元素均能准确表达。
此次发布是MiniMax技术密集输出的重要一环。公司在一周内相继推出开源文本模型M2、视频模型Hailuo 2.3和语音模型Speech 2.6,形成覆盖文本、语音、视觉、音乐的全模态能力。据行业观察,这种技术协同效应可能重塑AI内容生产生态,为创作者提供端到端的智能创作工具。
市场分析指出,Music 2.0的商用潜力主要体现在音乐教育、广告配乐、游戏音效等领域。其技术突破不仅降低了专业音乐制作门槛,也为个性化音乐需求提供了规模化解决方案。随着模型性能的持续优化,AI生成音乐有望进入主流创作场景。
© 版权声明
文章版权归作者所有,未经允许请勿转载。