使用Python对音频进行特征提取(二)

在几年前写的使用Python对音频进行特征提取使用的是人为特征的方法进行特征提取的,近些年随着深度学习的普及,这里尝试使用深度学习方法进行特征提取。

数据集测试

之前的数据集找不到了,这个数据其实是kaggle的一个数据:www.kaggle.com/datasets/ca...

也可以在百度云下载链接: pan.baidu.com/s/177E_2VhN... 提取码: c5nh

音频特征提取

相比传统的方法一堆特征筛选,深度学习这里其实就是一个黑盒。

这里使用了一个音频编码器模型:teticio/audio-encoder

This model encodes audio files into vectors of 100 dimensions. It was trained on a million Spotify playlists and tracks. The details can be found here.

也就是输入一个audio文件名,可以转为100维的特征向量。

css 复制代码
from audiodiffusion.audio_encoder import AudioEncoder

audio_encoder = AudioEncoder.from_pretrained("teticio/audio-encoder")
audio_encoder.encode(["./genres/blues/blues.00043.au"]).numpy()[0].tolist()

可以看到这里把音频直接编码特征了。

然后把所有的数据都转成100维,构成数据集。

py 复制代码
import numpy as np
import os

genres = 'blues classical country disco hiphop jazz metal pop reggae rock'.split()

data_set = []
label_set = []

label2id = {genre:i for i,genre in enumerate(genres)}
id2label = {i:genre for i,genre in enumerate(genres)}

print(label2id)

for g in genres:
    print(g)
    for filename in os.listdir(f'./genres/{g}/'):
        songname = f'./genres/{g}/{filename}'
        print(songname)
        data_set.append(audio_encoder.encode([songname]).numpy()[0].tolist())
        label_set.append(label2id[g])

然后简单的标准化一下。

ini 复制代码
from sklearn.preprocessing import StandardScaler
from keras.utils import to_categorical

scaler = StandardScaler()
X = scaler.fit_transform(np.array(data_set, dtype = float))
y = to_categorical(np.array(label_set))

可以看到这里有1000条数据,10个类别。

ini 复制代码
from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

模型训练

这里模型训练和之前一样,先构建一个全连接模型。

css 复制代码
from keras import models
from keras.layers import Dense, Dropout

def create_model():
    model = models.Sequential()
    model.add(Dense(256, activation='relu', input_shape=(X_train.shape[1],)))
    model.add(Dense(128, activation='relu'))
    model.add(Dense(64, activation='relu'))
    model.add(Dropout(0.5))
    model.add(Dense(10, activation='softmax'))

    return model

model = create_model()

然后训练。

ini 复制代码
model.compile(optimizer='adam',
              loss='categorical_crossentropy',
              metrics=['accuracy'])
ini 复制代码
model.fit(X_train, y_train, epochs=50, batch_size=128)

最后进行测试。

scss 复制代码
test_loss, test_acc = model.evaluate(X_test,y_test)
print('test_acc: ',test_acc)

相比使用人工提取的特征,这次准度比之前的高一些。

相关推荐
文心快码 Baidu Comate3 分钟前
打破视障壁垒,百度文心快码无障碍版本助力视障IT从业者就业无“碍”
人工智能·ai编程·文心快码·智能编程助手·智能代码助手
诚威_lol_中大努力中9 分钟前
关于pytorch3d的安装
人工智能·pytorch·python
pzx_00110 分钟前
【LeetCode】94.二叉树的中序遍历
算法·leetcode·职场和发展
我曾经是个程序员14 分钟前
使用C#生成一张1G大小的空白图片
java·算法·c#
GISer_Jing15 分钟前
神经网络、深度学习、卷积神经网络
python
herogus丶31 分钟前
【Spring AI】Spring AI Alibaba的简单使用
java·人工智能·spring·ai
芒果de香蕉皮35 分钟前
mavlink移植到单片机stm32f103c8t6,实现接收和发送数据
stm32·单片机·嵌入式硬件·算法·无人机
徐子童40 分钟前
二分查找算法专题
数据结构·算法
小王子10241 小时前
数据结构与算法Python版 二叉查找树
数据结构·python·算法·二叉查找树
编程阿布1 小时前
Python基础——多线程编程
java·数据库·python