AI作曲的一个点子

通常的AI作曲都是通过拆分音乐为几个声道,

然后再把各个声道拆成音符去分析.

我忽然之间有个想法,是否可以继续拆分下去.

音符就是一些有规则的高低电平,这样把音符拆成电平.

一定会带来巨大的运算,但如果有强大的运算可以重组,就能够有更好的效果.

就如同积木一样,拆成的单元越散,得到的信息越多.重组之后的可能性就越高.精准分类也就越细.

我目前的想法是,音符也许并不是音乐的组成单元.

以前人们认为物质组成是分子,后来是原子,后来原子也可以拆分成夸克...当然每个级别

的拆分后,他们的规则是有质的改变.

音乐的单位是音符,众所周知,但是,我想把音乐拆成音符分析,

这其中会有另一套区别于音符的规律.

也许是扯,也许未来音乐的变革...以后人们听的不再是悦耳音符,而是刺啦刺啦的电波高低组合了.

目前我想用wav文件去尝试一下,

因为它没有经过压缩,里面的数据,就是输出到喇叭上的高低电平.

截取一段wav音乐比如贝多芬的《致爱丽丝》

或者是《命运交响曲》,我感觉后者会好些,说不定到时候会有什么糟糕状况.

如果出现噪声,我感觉还是比较像命运交响吧

当然,除了让随意生成wav_b 外,我们还可以自己加入一些特定的wav_b.

也可以,引入反馈.

除了这些之外,还可以加入现有的作曲规则,进行约束和筛选.

从频域,从时域,从混乱程度去分析.

原文地址:https://www.cnblogs.com/chulin/p/12765104.html