使用Python对音频进行特征提取(二)

在几年前写的使用Python对音频进行特征提取使用的是人为特征的方法进行特征提取的,近些年随着深度学习的普及,这里尝试使用深度学习方法进行特征提取。

数据集测试

之前的数据集找不到了,这个数据其实是kaggle的一个数据:www.kaggle.com/datasets/ca...

也可以在百度云下载链接: pan.baidu.com/s/177E_2VhN... 提取码: c5nh

音频特征提取

相比传统的方法一堆特征筛选,深度学习这里其实就是一个黑盒。

这里使用了一个音频编码器模型:teticio/audio-encoder

This model encodes audio files into vectors of 100 dimensions. It was trained on a million Spotify playlists and tracks. The details can be found here.

也就是输入一个audio文件名,可以转为100维的特征向量。

css 复制代码
from audiodiffusion.audio_encoder import AudioEncoder

audio_encoder = AudioEncoder.from_pretrained("teticio/audio-encoder")
audio_encoder.encode(["./genres/blues/blues.00043.au"]).numpy()[0].tolist()

可以看到这里把音频直接编码特征了。

然后把所有的数据都转成100维,构成数据集。

py 复制代码
import numpy as np
import os

genres = 'blues classical country disco hiphop jazz metal pop reggae rock'.split()

data_set = []
label_set = []

label2id = {genre:i for i,genre in enumerate(genres)}
id2label = {i:genre for i,genre in enumerate(genres)}

print(label2id)

for g in genres:
    print(g)
    for filename in os.listdir(f'./genres/{g}/'):
        songname = f'./genres/{g}/{filename}'
        print(songname)
        data_set.append(audio_encoder.encode([songname]).numpy()[0].tolist())
        label_set.append(label2id[g])

然后简单的标准化一下。

ini 复制代码
from sklearn.preprocessing import StandardScaler
from keras.utils import to_categorical

scaler = StandardScaler()
X = scaler.fit_transform(np.array(data_set, dtype = float))
y = to_categorical(np.array(label_set))

可以看到这里有1000条数据,10个类别。

ini 复制代码
from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

模型训练

这里模型训练和之前一样,先构建一个全连接模型。

css 复制代码
from keras import models
from keras.layers import Dense, Dropout

def create_model():
    model = models.Sequential()
    model.add(Dense(256, activation='relu', input_shape=(X_train.shape[1],)))
    model.add(Dense(128, activation='relu'))
    model.add(Dense(64, activation='relu'))
    model.add(Dropout(0.5))
    model.add(Dense(10, activation='softmax'))

    return model

model = create_model()

然后训练。

ini 复制代码
model.compile(optimizer='adam',
              loss='categorical_crossentropy',
              metrics=['accuracy'])
ini 复制代码
model.fit(X_train, y_train, epochs=50, batch_size=128)

最后进行测试。

scss 复制代码
test_loss, test_acc = model.evaluate(X_test,y_test)
print('test_acc: ',test_acc)

相比使用人工提取的特征,这次准度比之前的高一些。

相关推荐
Shawn_Shawn4 小时前
mcp学习笔记(一)-mcp核心概念梳理
人工智能·llm·mcp
冷雨夜中漫步5 小时前
Python快速入门(6)——for/if/while语句
开发语言·经验分享·笔记·python
33三 三like6 小时前
《基于知识图谱和智能推荐的养老志愿服务系统》开发日志
人工智能·知识图谱
芝士爱知识a6 小时前
【工具推荐】2026公考App横向评测:粉笔、华图与智蛙面试App功能对比
人工智能·软件推荐·ai教育·结构化面试·公考app·智蛙面试app·公考上岸
郝学胜-神的一滴6 小时前
深入解析Python字典的继承关系:从abc模块看设计之美
网络·数据结构·python·程序人生
百锦再6 小时前
Reactive编程入门:Project Reactor 深度指南
前端·javascript·python·react.js·django·前端框架·reactjs
腾讯云开发者7 小时前
港科大熊辉|AI时代的职场新坐标——为什么你应该去“数据稀疏“的地方?
人工智能
工程师老罗7 小时前
YoloV1数据集格式转换,VOC XML→YOLOv1张量
xml·人工智能·yolo
颜酱7 小时前
图结构完全解析:从基础概念到遍历实现
javascript·后端·算法