- Opis :
Wake Vision to duży, wysokiej jakości zbiór danych zawierający ponad 6 milionów obrazów, znacznie przekraczający skalę i różnorodność obecnych zbiorów danych tinyML (100x). Ten zbiór danych zawiera obrazy z adnotacją, czy każdy obraz przedstawia osobę. Ponadto zawiera kompleksowy, szczegółowy punkt odniesienia służący do oceny uczciwości i solidności, obejmujący postrzeganą płeć, postrzegany wiek, odległość od obiektu, warunki oświetleniowe i przedstawienia. Etykiety Wake Vision pochodzą z adnotacji Open Image, które są licencjonowane przez Google LLC na podstawie licencji CC BY 4.0. Obrazy są wymienione jako posiadające licencję CC BY 2.0. Uwaga od Open Images: „chociaż próbowaliśmy zidentyfikować obrazy objęte licencją Creative Commons Uznanie autorstwa, nie składamy żadnych oświadczeń ani zapewnień dotyczących statusu licencji każdego obrazu i należy samodzielnie zweryfikować licencję dla każdego obrazu”.
Strona główna : https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi%3A10.7910%2FDVN%2F1HOPXC
Kod źródłowy :
tfds.datasets.wake_vision.Builder
Wersje :
-
1.0.0
(domyślnie): początkowa wersja zestawów danych TensorFlow. Należy pamiętać, że jest to oparte na wersji 2.0 Wake Vision na Harvard Dataverse.
-
Rozmiar pobierania :
Unknown size
Rozmiar zbioru danych :
Unknown size
Automatyczne buforowanie ( dokumentacja ): Nieznane
Podziały :
Podział | Przykłady |
---|
- Struktura funkcji :
FeaturesDict({
'age_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'body_part': ClassLabel(shape=(), dtype=int64, num_classes=2),
'bright': ClassLabel(shape=(), dtype=int64, num_classes=2),
'dark': ClassLabel(shape=(), dtype=int64, num_classes=2),
'depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'far': ClassLabel(shape=(), dtype=int64, num_classes=2),
'filename': Text(shape=(), dtype=string),
'gender_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'image': Image(shape=(None, None, 3), dtype=uint8),
'medium_distance': ClassLabel(shape=(), dtype=int64, num_classes=2),
'middle_age': ClassLabel(shape=(), dtype=int64, num_classes=2),
'near': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_non-depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'normal_lighting': ClassLabel(shape=(), dtype=int64, num_classes=2),
'older': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_female': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_male': ClassLabel(shape=(), dtype=int64, num_classes=2),
'young': ClassLabel(shape=(), dtype=int64, num_classes=2),
})
- Dokumentacja funkcji :
Funkcja | Klasa | Kształt | Typ D | Opis |
---|---|---|---|---|
FunkcjeDykt | ||||
wiek_nieznany | Etykieta klasy | int64 | ||
część_ciała | Etykieta klasy | int64 | ||
jasny | Etykieta klasy | int64 | ||
ciemny | Etykieta klasy | int64 | ||
opis | Etykieta klasy | int64 | ||
daleko | Etykieta klasy | int64 | ||
nazwa pliku | Tekst | smyczkowy | ||
płeć_nieznana | Etykieta klasy | int64 | ||
obraz | Obraz | (Brak, Brak, 3) | uint8 | |
średnia_odległość | Etykieta klasy | int64 | ||
średni_wiek | Etykieta klasy | int64 | ||
w pobliżu | Etykieta klasy | int64 | ||
non-person_depiction | Etykieta klasy | int64 | ||
non-person_non-depiction | Etykieta klasy | int64 | ||
normalne_oświetlenie | Etykieta klasy | int64 | ||
starszy | Etykieta klasy | int64 | ||
osoba | Etykieta klasy | int64 | ||
przedstawienie_osoby | Etykieta klasy | int64 | ||
głównie_kobieta | Etykieta klasy | int64 | ||
głównie_mężczyźni | Etykieta klasy | int64 | ||
młody | Etykieta klasy | int64 |
Nadzorowane klucze (zobacz
as_supervised
dokument ):('image', 'person')
Rysunek ( tfds.show_examples ): Nieobsługiwany.
Przykłady ( tfds.as_dataframe ): Brak.
Cytat :
@article{banbury2024wake,
title={Wake Vision: A Large-scale, Diverse Dataset and Benchmark Suite for TinyML Person Detection},
author={Banbury, Colby and Njor, Emil and Stewart, Matthew and Warden, Pete and Kudlur, Manjunath and Jeffries, Nat and Fafoutis, Xenofon and Reddi, Vijay Janapa},
journal={arXiv preprint arXiv:2405.00892},
year={2024}
}