近日,由香港科技大学与音乐领域DeepSeek合作开发的开源音乐生成模型YuE正式发布,为乐迷和音乐创作者带来了全新的体验。该模型不仅能生成多种风格的音乐,还能模拟人声,实现了专业级歌声与伴奏的同步创作。
YuE采用双LLaMA语言模型架构,可无缝适配各类大语言模型,并支持长达5分钟的完整歌曲生成。这一创新设计使其在音乐生成质量上达到了前所未有的高度,足以与市场上著名的闭源工具Suno和Udio相媲美。
研究团队在YuE中引入了“双轨版下一token预测”策略,将人声和伴奏轨道分开建模,确保了音乐创作的细腻度和一致性。同时,“结构化渐进生成”技术让主副歌段落能够在同一上下文中交替生成,进一步提升了歌曲的连贯性。
YuE还开发了独特的音乐上下文学习技术,使模型在创作时能够从现有音乐片段中学习而不重复,从而提高了音乐性和创作的独特性。多项评测显示,YuE表现卓越,赢得了用户的一致好评。
随着YuE的发布,音乐创作的未来充满无限可能。无论是专业音乐人还是业余爱好者,都可以在这个平台上体验AI带来的创作乐趣。
项目地址:GitHub
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...