- Descriptif :
SAVEE (Surrey Audio-Visual Expressed Emotion) est un ensemble de données de reconnaissance des émotions. Il se compose d'enregistrements de 4 acteurs masculins dans 7 émotions différentes, 480 énoncés en anglais britannique au total. Les phrases ont été choisies dans le corpus TIMIT standard et équilibrées phonétiquement pour chaque émotion. Cette version contient uniquement le flux audio de l'enregistrement audiovisuel original.
Les données sont divisées de sorte que l'ensemble de formation se compose de 2 locuteurs, et que l'ensemble de validation et de test se compose d'échantillons d'un locuteur, respectivement.
Documentation complémentaire : Explorer sur Papers With Code
Page d' accueil : http://kahlan.eps.surrey.ac.uk/savee/
Code source :
tfds.datasets.savee.Builder
Versions :
-
1.0.0
(par défaut) : aucune note de version.
-
Taille du téléchargement :
Unknown size
Taille du jeu de données :
259.15 MiB
Instructions de téléchargement manuel : cet ensemble de données nécessite que vous téléchargiez manuellement les données source dans
download_config.manual_dir
(par défaut~/tensorflow_datasets/downloads/manual/
) :
manual_dir doit contenir le fichier AudioData.zip. Ce fichier doit se trouver sous Data/Zip/AudioData.zip dans le dossier de l'ensemble de données fourni lors de l'inscription. Vous devez vous inscrire sur http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html afin d'obtenir le lien pour télécharger l'ensemble de données.Mise en cache automatique ( documentation ): Non
Fractionnements :
Diviser | Exemples |
---|---|
'test' | 120 |
'train' | 240 |
'validation' | 120 |
- Structure des fonctionnalités :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=7),
'speaker_id': string,
})
- Documentation des fonctionnalités :
Caractéristique | Classe | Façonner | Dtype | Description |
---|---|---|---|---|
FonctionnalitésDict | ||||
l'audio | l'audio | (Aucun,) | int64 | |
étiquette | Étiquette de classe | int64 | ||
id_haut-parleur | Tenseur | chaîne de caractères |
Touches supervisées (Voir
as_supervised
doc ):('audio', 'label')
Figure ( tfds.show_examples ) : non pris en charge.
Exemples ( tfds.as_dataframe ):
- Citation :
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}