- Açıklama :
CIFAR-10'un test setinin gerçek insan açıklamacılardan gelen yumuşak etiketlerle yeniden etiketlenmiş bir versiyonu. Orijinal CIFAR-10 test setindeki her çift (görüntü, etiket) için, ortalama yumuşak etiketin yanı sıra gerçek insan açıklamacılar tarafından verilen birkaç ek etiket sağlar. Eğitim seti orijinal veri seti ile aynıdır.
Ana sayfa : https://github.com/jcpeterson/cifar-10h
Kaynak kodu :
tfds.image_classification.cifar10_h.Cifar10H
Sürümler :
-
1.0.0
(varsayılan): İlk sürüm.
-
İndirme boyutu :
172.92 MiB
Veri kümesi boyutu :
144.85 MiB
Otomatik önbelleğe alınmış ( belgeler ): Evet
Bölünmeler :
Bölmek | Örnekler |
---|---|
'test' | 10.000 |
'train' | 50.000 |
- Özellik yapısı :
FeaturesDict({
'annotator_ids': Sequence(Scalar(shape=(), dtype=int32)),
'human_labels': Sequence(ClassLabel(shape=(), dtype=int64, num_classes=10)),
'id': Text(shape=(), dtype=string),
'image': Image(shape=(32, 32, 3), dtype=uint8),
'label': ClassLabel(shape=(), dtype=int64, num_classes=10),
'reaction_times': Sequence(Scalar(shape=(), dtype=float32)),
'soft_label': Tensor(shape=(10,), dtype=float32),
'trial_indices': Sequence(Scalar(shape=(), dtype=int32)),
})
- Özellik belgeleri :
Özellik | Sınıf | Şekil | Dtipi | Tanım |
---|---|---|---|---|
ÖzelliklerDict | ||||
annotator_ids | Sıra(Skaler) | (Hiçbiri,) | int32 | |
insan_etiketleri | Sıra(SınıfEtiketi) | (Hiçbiri,) | int64 | |
İD | Metin | sicim | ||
resim | Resim | (32, 32, 3) | uint8 | |
etiket | SınıfEtiketi | int64 | ||
reaksiyon_zamanları | Sıra(Skaler) | (Hiçbiri,) | kayan nokta32 | |
yumuşak_etiket | Tensör | (10,) | kayan nokta32 | |
deneme_indisleri | Sıra(Skaler) | (Hiçbiri,) | int32 |
Denetlenen anahtarlar (
as_supervised
belgesine bakın):None
Şekil ( tfds.show_examples ):
- Örnekler ( tfds.as_dataframe ):
- Alıntı :
@inproceedings{wei2022learning,
title={Human uncertainty makes classification more robust},
author={Joshua C. Peterson and Ruairidh M. Battleday and Thomas L. Griffiths
and Olga Russakovsky},
booktitle={IEEE International Conference on Computer Vision and Pattern
Recognition (CVPR)},
year={2019}
}