- Descriptif :
CREMA-D est un ensemble de données audiovisuelles pour la reconnaissance des émotions. L'ensemble de données se compose d'expressions émotionnelles faciales et vocales dans des phrases prononcées dans une gamme d'états émotionnels de base (heureux, triste, colère, peur, dégoût et neutre). 7 442 clips de 91 acteurs aux origines ethniques diverses ont été collectés. Cette version contient uniquement le flux audio de l'enregistrement audiovisuel original. Les échantillons sont répartis entre le train, la validation et le test afin que les échantillons de chaque locuteur appartiennent à exactement une division.
Documentation complémentaire : Explorer sur Papers With Code
Page d' accueil : https://github.com/CheyneyComputerScience/CREMA-D
Code source :
tfds.audio.CremaD
Versions :
-
1.0.0
(par défaut) : aucune note de version.
-
Taille du téléchargement :
579.25 MiB
Taille du jeu de données :
1.65 GiB
Mise en cache automatique ( documentation ): Non
Fractionnements :
Diviser | Exemples |
---|---|
'test' | 1 556 |
'train' | 5 144 |
'validation' | 738 |
- Structure des fonctionnalités :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
'speaker_id': string,
})
- Documentation des fonctionnalités :
Caractéristique | Classer | Forme | Dtype | La description |
---|---|---|---|---|
FonctionnalitésDict | ||||
l'audio | l'audio | (Aucun,) | int64 | |
étiquette | Étiquette de classe | int64 | ||
id_haut-parleur | Tenseur | chaîne de caractères |
Touches supervisées (Voir
as_supervised
doc ):('audio', 'label')
Figure ( tfds.show_examples ) : non pris en charge.
Exemples ( tfds.as_dataframe ):
- Citation :
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}