同样是AIGC|AI 绘画火得,AI 唱歌火不得( 二 )


另一条路子 , 则主打“AI自动合成音乐作品” 。 比如腾讯音乐阿波罗声音实验室研发的声音合成技术引擎“凌音” , 高度还原和复刻歌手的声音特点 , 重现艺人经典声音 , 首位AI歌手发布于今年7月 , 基于杨超越的声音合成 , 只需要歌手10分钟左右的录音就能很好地复刻出原声 , 甚至可以在演唱中带“感情” 。 此后的成熟作品有《没有寄出的信》(复刻和重现邓丽君的声音) , 《愿你被这个世界温柔以待》(复刻和重现梅艳芳的声音) 。
“自动作曲”与“凌音引擎”的不同之处是 , “自动作曲”模仿音乐 , “凌音引擎”是使用自主设计的深度神经网络模型 , 加上既有声音风格元的“合成音乐” , 后者并不避讳使用了人类历史上精华艺术作品 , 并复刻这些艺术风格 。
这也是AIGC类音乐的另一个发展方向——与其让机器搞原创音乐 , 不如让机器辅助人创作音乐 , 并且比起单纯的输出歌曲 , 还可以做得更多 , 改变我们过往体验音乐的方式 。
谷歌AI音乐项目Magenta的技术负责人道格拉斯?艾克(DouglasEck)在接受《科学》杂志(Science)采访时认为 , AI已经是国际象棋高手 , 但如今已成为人类棋艺精进的帮手 , 音乐也一样 , 如今不管机器学习速度有多快 , 人类都能以更快速度适应和利用AI技术来辅助创作 , 玩出新意[5] 。
说得直白点 , AI大可不必取代人类 , 做个趁手的工具也挺好 。 而最需要AI工具生成内容的 , 可能不在现实 , 而在虚拟世界 。
也就是 , 如何把“中之人”彻底数字化 。
同样是AIGC|AI 绘画火得,AI 唱歌火不得
文章图片
把AI用到刀刃上
AIGC的音乐进化到今天 , 已经不同于过往的自动语音合成技术 , 而是具有更高复刻度 , 引擎渲染后的AI声音在音色、语气上与真人更加接近 , 在演唱上也更有表现力和“感情” 。 目前“凌音”技术不仅能让AI演唱(官方称“合成“)已存在的曲目 , 用户也可一键定制由AI作词、谱曲、演唱的合成歌曲 。
在这种环境下 , 人们面对的问题是:如何让元宇宙数字人唱跳Rap打篮球?
这并不容易 , 因为视频世界中不仅需要音乐 , 还要求具备音乐(乐器/人类)的声音、口型、表情、动作等元素 , 更丰富的场景下 , 还需要舞蹈、运镜、灯光……
如果你使用腾讯音乐天琴实验室的“MusicXRMaker系统” , 完全可以实现这些需求 , 而且应用场景多样化 , 该系统的首位虚拟人小琴于今年10月推出 , 用AI驱动的方式 , 基于音乐去生成舞蹈表演和歌唱元素 , 目的是提升运营效率和虚拟人的真实、趣味性 。 这也给会议、客服、新闻播报等场景提供了更好的解决方案 。 据了解 , 很快也将会有一位从“次世代”远道而来、经过层层遴选的“超级歌手”在TME出道 , 或许她将颠覆我们对唱歌的想象 , 成为开辟“音乐虚拟偶像元年”的天降紫微星 。
“不同于大投入定制化的头部虚拟偶像 , 我们希望将MusicXRMaker打造成一套高效率、低成本产出数字人的平台 , 同时让数字人具备更强的实时内容生产能力 , 让任意音乐、舞蹈、舞台等元素的互动结合成为可能 。 ”QQ音乐技术副总裁周文江谈到 。
同样是AIGC|AI 绘画火得,AI 唱歌火不得
文章图片
元宇宙的AIGC音乐也得赚钱啊
2022年 , 扎克伯格100亿美元烧出来的元宇宙社交平台地平线世界(HorizonWorlds)留存量感人 , 今年10月16日 , Meta内部文件被曝光 , 其中显示地平线世界的月度活跃用户数量不足20万 , 远未达到原本50万的预期 , 且兴趣时长仅仅一个月 。