- 説明:
CIFAR-100 の再ラベル付けされたバージョンで、実際の人間の注釈エラーがあります。元の CIFAR-100 トレイン セットのすべてのペア (画像、ラベル) に対して、実際の人間のアノテーターによって付与された追加のラベルが提供されます。
バージョン:
-
1.0.0
: 初期リリース。 -
1.0.1
(デフォルト): 注釈と画像の対応を修正しました。
-
ダウンロードサイズ:
160.71 MiB
データセットサイズ:
136.07 MiB
手動ダウンロードの手順: このデータセットでは、ソース データを手動で
download_config.manual_dir
(デフォルトは~/tensorflow_datasets/downloads/manual/
) にダウンロードする必要があります。
https://github.com/UCSC-REAL/cifar-10-100nから「side_info_cifar100N.csv」、「CIFAR-100_human_ordered.npy」、「image_order_c100.npy」をダウンロードします
次に、「CIFAR-100_human_ordered.npy」を CSV ファイル「CIFAR-100_human_annotations.csv」に変換します。これは、次のコードで実行できます。
import numpy as np
from tensorflow_datasets.core.utils.lazy_imports_utils import pandas as pd
from tensorflow_datasets.core.utils.lazy_imports_utils import tensorflow as tf
human_labels_np_path = '<local_path>/CIFAR-100_human_ordered.npy'
human_labels_csv_path = '<local_path>/CIFAR-100_human_annotations.csv'
with tf.io.gfile.GFile(human_labels_np_path, "rb") as f:
human_annotations = np.load(f, allow_pickle=True)
df = pd.DataFrame(human_annotations[()])
with tf.io.gfile.GFile(human_labels_csv_path, "w") as f:
df.to_csv(f, index=False)
自動キャッシュ(ドキュメント): はい
スプリット:
スプリット | 例 |
---|---|
'test' | 10,000 |
'train' | 50,000 |
- 機能構造:
FeaturesDict({
'coarse_label': ClassLabel(shape=(), dtype=int64, num_classes=20),
'id': Text(shape=(), dtype=string),
'image': Image(shape=(32, 32, 3), dtype=uint8),
'label': ClassLabel(shape=(), dtype=int64, num_classes=100),
'noise_label': ClassLabel(shape=(), dtype=int64, num_classes=100),
'worker_id': int64,
'worker_time': float32,
})
- 機能のドキュメント:
特徴 | クラス | 形 | Dtype | 説明 |
---|---|---|---|---|
特徴辞書 | ||||
粗いラベル | クラスラベル | int64 | ||
ID | 文章 | ストリング | ||
画像 | 画像 | (32, 32, 3) | uint8 | |
ラベル | クラスラベル | int64 | ||
ノイズラベル | クラスラベル | int64 | ||
worker_id | テンソル | int64 | ||
worker_time | テンソル | float32 |
監視されたキー(
as_supervised
docを参照):None
図( tfds.show_examples ):
- 例( tfds.as_dataframe ):
- 引用:
@inproceedings{wei2022learning,
title={Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations},
author={Jiaheng Wei and Zhaowei Zhu and Hao Cheng and Tongliang Liu and Gang
Niu and Yang Liu},
booktitle={International Conference on Learning Representations},
year={2022},
url={https://openreview.net/forum?id=TBWA6PLJZQm}
}