听歌识曲,顾名思义,用设备“听”歌曲,而后它要告诉你这是首什么歌。并且十之八九它还得把这首歌给你播放出来。这样的功能在QQ音乐等应用上早就出现了。咱们今天来本身动手作一个本身的听歌识曲
咱们设计的整体流程图很简单:
html
咱们要想“听”,就必须先有录音的过程。在咱们的实验中,咱们的曲库也要用咱们的录音代码来进行录音,而后提取特征存进数据库。咱们用下面这样的思路来录音
python
# coding=utf8 import wave import pyaudio class recode(): def recode(self, CHUNK=44100, FORMAT=pyaudio.paInt16, CHANNELS=2, RATE=44100, RECORD_SECONDS=200, WAVE_OUTPUT_FILENAME="record.wav"): ''' :param CHUNK: 缓冲区大小 :param FORMAT: 采样大小 :param CHANNELS:通道数 :param RATE:采样率 :param RECORD_SECONDS:录的时间 :param WAVE_OUTPUT_FILENAME:输出文件路径 :return: ''' p = pyaudio.PyAudio() stream = p.open(format=FORMAT, channels=CHANNELS, rate=RATE, input=True, frames_per_buffer=CHUNK) frames = [] for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)): data = stream.read(CHUNK) frames.append(data) stream.stop_stream() stream.close() p.terminate() wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb') wf.setnchannels(CHANNELS) wf.setsampwidth(p.get_sample_size(FORMAT)) wf.setframerate(RATE) wf.writeframes(''.join(frames)) wf.close() if __name__ == '__main__': a = recode() a.recode(RECORD_SECONDS=30, WAVE_OUTPUT_FILENAME='record_pianai.wav')
咱们录完的歌曲是个什么形式?
若是只看一个声道的话,他是一个一维数组,大概长成这个样子
mysql
咱们把他按照索引值为横轴画出来,就是咱们经常看见的音频的形式。
算法
咱们在这里要写咱们的核心代码。关键的“如何识别歌曲”。想一想咱们人类如何区分歌曲? 是靠想上面那样的一维数组吗?是靠歌曲的响度吗?都不是。
咱们是经过耳朵所听到的特有的频率组成的序列来记忆歌曲的,因此咱们想要写听歌识曲的话,就得在音频的频率序列上作文章。
复习一下什么是傅里叶变换。博主的《信号与系统》的课上的挺水,不过在课上虽然没有记下来具体的变换形式,可是感性的理解仍是有的。
傅里叶变换的实质就是把时域信号变换成了频域信号。也就是本来X,Y轴分别是咱们的数组下标和数组元素,如今变成了频率(这么说不许确,但在这里这样理解没错)和在这个频率上的份量大小。sql
上面的图来自知乎,很是感谢Heinrich写的文章,原文连接:点我跳转数据库
怎么理解频域这个事情呢?对于咱们信号处理不是很懂的人来讲,最重要的就是改变对音频的构成的理解。咱们原来认为音频就是如咱们开始给出的波形那样,在每个时间有一个幅值,不一样的幅值序列构成了咱们特定的声音。而如今,咱们认为声音是不一样的频率信号混合而成的,他们每个信号都自始至终存在着。而且他们按照他们的投影份量作贡献。数组
让咱们看看把一首歌曲转化到频域是什么样子?
app
咱们能够观察到这些频率的份量并非平均的,差别是很是大的。咱们能够在必定程度上认为在图中明显凸起的峰值是输出能量大的频率信号,表明着在这个音频中,这个信号占有很高的地位。因而咱们就选择这样的信号来提取歌曲的特征。fetch
可是别忘了,咱们以前说的但是频率序列,傅里叶变换一套上,咱们就只能知道整首歌曲的频率信息,那么咱们就损失了时间的关系,咱们说的“序列”也就无从谈起。因此咱们采用的比较折中的方法,将音频按照时间分红一个个小块,在这里我每秒分出了40个块。
在这里留个问题:为何要采用小块,而不是每秒一块这样的大块?设计
咱们对每个块进行傅里叶变换,而后对其求模,获得一个个数组。咱们在下标值为(0,40),(40,80),(80,120),(120,180)这四个区间分别取其模长最大的下标,合成一个四元组,这就是咱们最核心的音频“指纹”。
咱们提取出来的“指纹”相似下面这样
(39, 65, 110, 131), (15, 66, 108, 161), (3, 63, 118, 146), (11, 62, 82, 158), (15, 41, 95, 140), (2, 71, 106, 143), (15, 44, 80, 133), (36, 43, 80, 135), (22, 58, 80, 120), (29, 52, 89, 126), (15, 59, 89, 126), (37, 59, 89, 126), (37, 59, 89, 126), (37, 67, 119, 126)
音频处理的类有三个方法:载入数据,傅里叶变换,播放音乐。
以下:
# coding=utf8 import os import re import wave import numpy as np import pyaudio class voice(): def loaddata(self, filepath): ''' :param filepath: 文件路径,为wav文件 :return: 若是无异常则返回True,若是有异常退出并返回False self.wave_data内储存着多通道的音频数据,其中self.wave_data[0]表明第一通道 具体有几通道,看self.nchannels ''' if type(filepath) != str: raise TypeError, 'the type of filepath must be string' p1 = re.compile('\.wav') if p1.findall(filepath) is None: raise IOError, 'the suffix of file must be .wav' try: f = wave.open(filepath, 'rb') params = f.getparams() self.nchannels, self.sampwidth, self.framerate, self.nframes = params[:4] str_data = f.readframes(self.nframes) self.wave_data = np.fromstring(str_data, dtype=np.short) self.wave_data.shape = -1, self.sampwidth self.wave_data = self.wave_data.T f.close() self.name = os.path.basename(filepath) # 记录下文件名 return True except: raise IOError, 'File Error' def fft(self, frames=40): ''' 总体指纹提取的核心方法,将整个音频分块后分别对每块进行傅里叶变换,以后分子带抽取高能量点的下标 :param frames: frames是指定每秒钟分块数 :return: ''' block = [] fft_blocks = [] self.high_point = [] blocks_size = self.framerate / frames # block_size为每一块的frame数量 blocks_num = self.nframes / blocks_size # 将音频分块的数量 for i in xrange(0, len(self.wave_data[0]) - blocks_size, blocks_size): block.append(self.wave_data[0][i:i + blocks_size]) fft_blocks.append(np.abs(np.fft.fft(self.wave_data[0][i:i + blocks_size]))) self.high_point.append((np.argmax(fft_blocks[-1][:40]), np.argmax(fft_blocks[-1][40:80]) + 40, np.argmax(fft_blocks[-1][80:120]) + 80, np.argmax(fft_blocks[-1][120:180]) + 120, # np.argmax(fft_blocks[-1][180:300]) + 180, )) def play(self, filepath): ''' 音频播放方法 :param filepath:文件路径 :return: ''' chunk = 1024 wf = wave.open(filepath, 'rb') p = pyaudio.PyAudio() # 打开声音输出流 stream = p.open(format=p.get_format_from_width(wf.getsampwidth()), channels=wf.getnchannels(), rate=wf.getframerate(), output=True) # 写声音输出流进行播放 while True: data = wf.readframes(chunk) if data == "": break stream.write(data) stream.close() p.terminate() if __name__ == '__main__': p = voice() p.play('the_mess.wav') print p.name
这里面的self.high_point是将来应用的核心数据。列表类型,里面的元素都是上面所解释过的指纹的形式。
由于咱们是事先作好了曲库来等待检索,因此必需要有相应的持久化方法。我采用的是直接用mysql数据库来存储咱们的歌曲对应的指纹,这样有一个好处:省写代码的时间
咱们将指纹和歌曲存成这样的形式:
顺便一说:为何各个歌曲前几个的指纹都同样?(固然,后面确定是千差万别的)实际上是音乐开始以前的时间段中没有什么能量较强的点,而因为咱们44100的采样率比较高,就会致使开头会有不少重复,别担忧。
咱们怎么来进行匹配呢?咱们能够直接搜索音频指纹相同的数量,不过这样又损失了咱们以前说的序列,咱们必需要把时间序列用上。不然一首歌曲越长就越容易被匹配到,这种歌曲像野草同样疯狂的占据了全部搜索音频的结果排行榜中的第一名。并且从理论上说,音频所包含的信息就是在序列中体现,就像一句话是靠各个短语和词汇按照必定顺序才能表达出它本身的意思。单纯的看两个句子里的词汇重叠数是彻底不能断定两句话是否类似的。咱们采用的是下面的算法,不过咱们这只是实验性的代码,算法设计的很简单,效率不高。建议想要作更好的结果的同窗可使用改进的DTW算法。
咱们在匹配过程当中滑动指纹序列,每次比对模式串和源串的对应子串,若是对应位置的指纹相同,则此次的比对类似值加一,咱们把滑动过程当中获得的最大类似值做为这两首歌的类似度。
举例:
曲库中的一首曲子的指纹序列:[fp13, fp20, fp10, fp29, fp14, fp25, fp13, fp13, fp20, fp33, fp14]
检索音乐的指纹序列: [fp14, fp25, fp13, fp17]
比对过程:
最终的匹配类似值为3
存储检索部分的实现代码
# coding=utf-8 import os import MySQLdb import my_audio class memory(): def __init__(self, host, port, user, passwd, db): ''' 初始化的方法,主要是存储链接数据库的参数 :param host: :param port: :param user: :param passwd: :param db: ''' self.host = host self.port = port self.user = user self.passwd = passwd self.db = db def addsong(self, path): ''' 添加歌曲方法,将歌曲名和歌曲特征指纹存到数据库 :param path: 歌曲路径 :return: ''' if type(path) != str: raise TypeError, 'path need string' basename = os.path.basename(path) try: conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db, charset='utf8') except: print 'DataBase error' return None cur = conn.cursor() namecount = cur.execute("select * from fingerprint.musicdata WHERE song_name = '%s'" % basename) if namecount > 0: print 'the song has been record!' return None v = my_audio.voice() v.loaddata(path) v.fft() cur.execute("insert into fingerprint.musicdata VALUES('%s','%s')" % (basename, v.high_point.__str__())) conn.commit() cur.close() conn.close() def fp_compare(self, search_fp, match_fp): ''' :param search_fp: 查询指纹 :param match_fp: 库中指纹 :return:最大类似值 float ''' if len(search_fp) > len(match_fp): return 0 max_similar = 0 search_fp_len = len(search_fp) match_fp_len = len(match_fp) for i in range(match_fp_len - search_fp_len): temp = 0 for j in range(search_fp_len): if match_fp[i + j] == search_fp[j]: temp += 1 if temp > max_similar: max_similar = temp return max_similar def search(self, path): ''' 搜索方法,输入为文件路径 :param path: 待检索文件路径 :return: 按照类似度排序后的列表,元素类型为tuple,二元组,歌曲名和类似匹配值 ''' #先计算出来咱们的音频指纹 v = my_audio.voice() v.loaddata(path) v.fft() #尝试链接数据库 try: conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db, charset='utf8') except: raise IOError, 'DataBase error' cur = conn.cursor() cur.execute("SELECT * FROM fingerprint.musicdata") result = cur.fetchall() compare_res = [] for i in result: compare_res.append((self.fp_compare(v.high_point[:-1], eval(i[1])), i[0])) compare_res.sort(reverse=True) cur.close() conn.close() print compare_res return compare_res def search_and_play(self, path): ''' 搜索方法顺带了播放方法 :param path:文件路径 :return: ''' v = my_audio.voice() v.loaddata(path) v.fft() try: conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db, charset='utf8') except: print 'DataBase error' return None cur = conn.cursor() cur.execute("SELECT * FROM fingerprint.musicdata") result = cur.fetchall() compare_res = [] for i in result: compare_res.append((self.fp_compare(v.high_point[:-1], eval(i[1])), i[0])) compare_res.sort(reverse=True) cur.close() conn.close() print compare_res v.play(compare_res[0][1]) return compare_res if __name__ == '__main__': sss = memory('localhost', 3306, 'root', '', 'fingerprint') sss.addsong('taiyangzhaochangshengqi.wav') sss.addsong('beiyiwangdeshiguang.wav') sss.addsong('xiaozezhenger.wav') sss.addsong('nverqing.wav') sss.addsong('the_mess.wav') sss.addsong('windmill.wav') sss.addsong('end_of_world.wav') sss.addsong('pianai.wav') sss.search_and_play('record_pianai.wav')
咱们这个实验不少地方都很粗糙,核心的算法是从shazam公司提出的算法吸收的“指纹”的思想。但愿读者能够提出宝贵建议。