Speech 您所在的位置:网站首页 mlp和svm Speech

Speech

2024-06-25 13:41| 来源: 网络整理| 查看: 265

Speech Emotion Recognition

用 LSTM、CNN、SVM、MLP 进行语音情感识别,Keras 实现。

改进了特征提取方式,识别准确率提高到了 80% 左右。原来的版本的存档在 First-Version 分支。

English Document | 中文文档

 

Environments Python 3.6.7 Keras 2.2.4

 

Structure ├── models/ // 模型实现 │   ├── common.py // 所有模型的基类 │   ├── dnn // 神经网络模型 │   │ ├── dnn.py // 所有神经网络模型的基类 │   │ ├── cnn.py // CNN │   │ └── lstm.py // LSTM │   └── ml.py // SVM & MLP ├── extract_feats/ // 特征提取 │   ├── librosa.py // librosa 提取特征 │   └── opensmile.py // Opensmile 提取特征 ├── utils/ │   ├── files.py // 用于整理数据集(分类、批量重命名) │   ├── opts.py // 使用 argparse 从命令行读入参数 │   └── plot.py // 绘图(雷达图、频谱图、波形图) ├── features/ // 存储提取好的特征 ├── config/ // 配置参数(.yaml) ├── train.py // 训练模型 ├── predict.py // 用训练好的模型预测指定音频的情感 └── preprocess.py // 数据预处理(提取数据集中音频的特征并保存)

 

Requirments Python scikit-learn:SVM & MLP 模型,划分训练集和测试集 Keras:LSTM、CNN TensorFlow:Keras 的后端 librosa:提取特征、波形图 SciPy:频谱图 pandas:加载特征 Matplotlib:绘图 numpy Tools Opensmile:提取特征

 

Datasets

RAVDESS

英文,24 个人(12 名男性,12 名女性)的大约 1500 个音频,表达了 8 种不同的情绪(第三位数字表示情绪类别):01 = neutral,02 = calm,03 = happy,04 = sad,05 = angry,06 = fearful,07 = disgust,08 = surprised。

SAVEE

英文,4 个人(男性)的大约 500 个音频,表达了 7 种不同的情绪(第一个字母表示情绪类别):a = anger,d = disgust,f = fear,h = happiness,n = neutral,sa = sadness,su = surprise。

EMO-DB

德语,10 个人(5 名男性,5 名女性)的大约 500 个音频,表达了 7 种不同的情绪(倒数第二个字母表示情绪类别):N = neutral,W = angry,A = fear,F = happy,T = sad,E = disgust,L = boredom。

CASIA

汉语,4 个人(2 名男性,2 名女性)的大约 1200 个音频,表达了 6 种不同的情绪:neutral,happy,sad,angry,fearful,surprised。

 

Usage Prepare

安装依赖:

pip install -r requirements.txt

安装 Opensmile。

 

Configuration

在 configs/ 文件夹中的配置文件(YAML)里配置参数。

其中 Opensmile 标准特征集目前只支持:

IS09_emotion:The INTERSPEECH 2009 Emotion Challenge,384 个特征; IS10_paraling:The INTERSPEECH 2010 Paralinguistic Challenge,1582 个特征; IS11_speaker_state:The INTERSPEECH 2011 Speaker State Challenge,4368 个特征; IS12_speaker_trait:The INTERSPEECH 2012 Speaker Trait Challenge,6125 个特征; IS13_ComParE:The INTERSPEECH 2013 ComParE Challenge,6373 个特征; ComParE_2016:The INTERSPEECH 2016 Computational Paralinguistics Challenge,6373 个特征。

如果需要用其他特征集,可以自行修改 extract_feats/opensmile.py 中的 FEATURE_NUM 项。

 

Preprocess

首先需要提取数据集中音频的特征并保存到本地。Opensmile 提取的特征会被保存在 .csv 文件中,librosa 提取的特征会被保存在 .p 文件中。

python preprocess.py --config configs/example.yaml

其中,configs/example.yaml 是你的配置文件路径。

 

Train

数据集路径可以在 configs/ 中配置,相同情感的音频放在同一个文件夹里(可以参考 utils/files.py 整理数据),如:

└── datasets ├── angry ├── happy ├── sad ...

然后:

python train.py --config configs/example.yaml

 

Predict

用训练好的模型来预测指定音频的情感。checkpoints 分支和 release 页面有一些已经训练好的模型。

python predict.py --config configs/example.yaml

 

Functions Radar Chart

画出预测概率的雷达图。

来源:Radar

import utils """ Args: data_prob (np.ndarray): 概率数组 class_labels (list): 情感标签 """ utils.radar(data_prob, class_labels)

 

Play Audio

播放一段音频

import utils utils.play_audio(file_path)

 

Plot Curve

画训练过程的准确率曲线和损失曲线。

import utils """ Args: train (list): 训练集损失值或准确率数组 val (list): 测试集损失值或准确率数组 title (str): 图像标题 y_label (str): y 轴标题 """ utils.curve(train, val, title, y_label)

 

Waveform

画出音频的波形图。

import utils utils.waveform(file_path)

 

Spectrogram

画出音频的频谱图。

import utils utils.spectrogram(file_path)

 

Other Contributors @Zhaofan-Su @Guo Hui


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有