- Descrizione :
CREMA-D è un set di dati audiovisivi per il riconoscimento delle emozioni. Il set di dati è costituito da espressioni emotive facciali e vocali in frasi pronunciate in una gamma di stati emotivi di base (felice, triste, rabbia, paura, disgusto e neutrale). Sono state raccolte 7.442 clip di 91 attori con origini etniche diverse. Questa versione contiene solo il flusso audio della registrazione audiovisiva originale. I campioni vengono suddivisi tra addestramento, convalida e test in modo che i campioni di ciascun diffusore appartengano esattamente a una divisione.
Documentazione aggiuntiva : Esplora documenti con codice
Pagina iniziale : https://github.com/CheyneyComputerScience/CREMA-D
Codice sorgente :
tfds.audio.CremaD
Versioni :
-
1.0.0
(impostazione predefinita): nessuna nota di rilascio.
-
Dimensione del download :
579.25 MiB
Dimensione del set di dati :
1.65 GiB
Cache automatica ( documentazione ): No
Divisioni :
Diviso | Esempi |
---|---|
'test' | 1.556 |
'train' | 5.144 |
'validation' | 738 |
- Struttura delle caratteristiche :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
'speaker_id': string,
})
- Documentazione delle funzionalità :
Caratteristica | Classe | Forma | Tipo D | Descrizione |
---|---|---|---|---|
CaratteristicheDict | ||||
Audio | Audio | (Nessuno,) | int64 | |
etichetta | ClassLabel | int64 | ||
id_altoparlante | Tensore | corda |
Chiavi supervisionate (Vedi
as_supervised
doc ):('audio', 'label')
Figura ( tfds.show_examples ): non supportato.
Esempi ( tfds.as_dataframe ):
- Citazione :
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}