- Описание :
D4RL — это тест с открытым исходным кодом для автономного обучения с подкреплением. Он предоставляет стандартизированные среды и наборы данных для алгоритмов обучения и сравнительного анализа.
Наборы данных соответствуют формату RLDS для представления шагов и эпизодов.
Домашняя страница : https://sites.google.com/view/d4rl-anonymous
Исходный код :
tfds.d4rl.d4rl_adroit_pen.D4rlAdroitPen
Версии :
-
1.0.0
: Начальная версия. -
1.1.0
(по умолчанию): добавлен is_last.
-
Контролируемые ключи (см. документ
as_supervised
):None
Рисунок ( tfds.show_examples ): не поддерживается.
Цитата :
@misc{fu2020d4rl,
title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
year={2020},
eprint={2004.07219},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
d4rl_adroit_pen/v0-human (конфигурация по умолчанию)
Описание конфигурации : более подробную информацию о задаче и ее версиях см. на странице https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit .
Размер загрузки :
1.94 MiB
Размер набора данных :
2.52 MiB
Автокэширование ( документация ): Да
Расколы :
Расколоть | Примеры |
---|---|
'train' | 50 |
- Структура функции :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Функциональная документация :
Особенность | Сорт | Форма | Дтип | Описание |
---|---|---|---|---|
ВозможностиDict | ||||
шаги | Набор данных | |||
шаги/действия | Тензор | (24,) | float32 | |
шаги/скидка | Тензор | float32 | ||
шаги/информация | ВозможностиDict | |||
шаги/информация/qpos | Тензор | (30,) | float32 | |
шаги/информация/qvel | Тензор | (30,) | float32 | |
шаги/is_first | Тензор | логическое значение | ||
шаги/is_last | Тензор | логическое значение | ||
шаги/is_terminal | Тензор | логическое значение | ||
шаги/наблюдение | Тензор | (45,) | float32 | |
шаги/награда | Тензор | float32 |
- Примеры ( tfds.as_dataframe ):
d4rl_adroit_pen/v0-клонирован
Описание конфигурации : более подробную информацию о задаче и ее версиях см. на странице https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit .
Размер загрузки :
292.85 MiB
Размер набора данных :
252.55 MiB
Автокэширование ( документация ): Нет
Расколы :
Расколоть | Примеры |
---|---|
'train' | 5,023 |
- Структура функции :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float64,
'infos': FeaturesDict({
'qpos': Tensor(shape=(30,), dtype=float64),
'qvel': Tensor(shape=(30,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float64),
'reward': float64,
}),
})
- Функциональная документация :
Особенность | Сорт | Форма | Дтип | Описание |
---|---|---|---|---|
ВозможностиDict | ||||
шаги | Набор данных | |||
шаги/действия | Тензор | (24,) | float32 | |
шаги/скидка | Тензор | float64 | ||
шаги/информация | ВозможностиDict | |||
шаги/информация/qpos | Тензор | (30,) | float64 | |
шаги/информация/qvel | Тензор | (30,) | float64 | |
шаги/is_first | Тензор | логическое значение | ||
шаги/is_last | Тензор | логическое значение | ||
шаги/is_terminal | Тензор | логическое значение | ||
шаги/наблюдение | Тензор | (45,) | float64 | |
шаги/награда | Тензор | float64 |
- Примеры ( tfds.as_dataframe ):
d4rl_adroit_pen/v0-expert
Описание конфигурации : более подробную информацию о задаче и ее версиях см. на странице https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit .
Размер загрузки :
250.13 MiB
Размер набора данных :
344.41 MiB
Автокэширование ( документация ): Нет
Расколы :
Расколоть | Примеры |
---|---|
'train' | 5000 |
- Структура функции :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_logstd': Tensor(shape=(24,), dtype=float32),
'action_mean': Tensor(shape=(24,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Функциональная документация :
Особенность | Сорт | Форма | Дтип | Описание |
---|---|---|---|---|
ВозможностиDict | ||||
шаги | Набор данных | |||
шаги/действия | Тензор | (24,) | float32 | |
шаги/скидка | Тензор | float32 | ||
шаги/информация | ВозможностиDict | |||
шаги/информация/action_logstd | Тензор | (24,) | float32 | |
шаги/информация/action_mean | Тензор | (24,) | float32 | |
шаги/информация/qpos | Тензор | (30,) | float32 | |
шаги/информация/qvel | Тензор | (30,) | поплавок32 | |
шаги/is_first | Тензор | логическое значение | ||
шаги/is_last | Тензор | логическое значение | ||
шаги/is_terminal | Тензор | логическое значение | ||
шаги/наблюдение | Тензор | (45,) | float32 | |
шаги/награда | Тензор | float32 |
- Примеры ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-человек
Описание конфигурации : более подробную информацию о задаче и ее версиях см. на странице https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit .
Размер загрузки :
1.95 MiB
Размер набора данных :
2.60 MiB
Автокэширование ( документация ): Да
Расколы :
Расколоть | Примеры |
---|---|
'train' | 25 |
- Структура функции :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Функциональная документация :
Особенность | Сорт | Форма | Дтип | Описание |
---|---|---|---|---|
ВозможностиDict | ||||
шаги | Набор данных | |||
шаги/действия | Тензор | (24,) | float32 | |
шаги/скидка | Тензор | float32 | ||
шаги/информация | ВозможностиDict | |||
шаги/информация/desired_orien | Тензор | (4,) | float32 | |
шаги/информация/qpos | Тензор | (30,) | float32 | |
шаги/информация/qvel | Тензор | (30,) | float32 | |
шаги/is_first | Тензор | логическое значение | ||
шаги/is_last | Тензор | логическое значение | ||
шаги/is_terminal | Тензор | логическое значение | ||
шаги/наблюдение | Тензор | (45,) | float32 | |
шаги/награда | Тензор | float32 |
- Примеры ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-клонирован
Описание конфигурации : более подробную информацию о задаче и ее версиях см. на странице https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit .
Размер загрузки :
147.89 MiB
Размер набора данных :
1.43 GiB
Автокэширование ( документация ): Нет
Расколы :
Расколоть | Примеры |
---|---|
'train' | 3755 |
- Структура функции :
FeaturesDict({
'algorithm': string,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(45, 256), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 256), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(256, 24), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Функциональная документация :
Особенность | Сорт | Форма | Дтип | Описание |
---|---|---|---|---|
ВозможностиDict | ||||
алгоритм | Тензор | нить | ||
политика | ВозможностиDict | |||
политика/fc0 | ВозможностиDict | |||
политика/fc0/предвзятость | Тензор | (256,) | float32 | |
политика/fc0/вес | Тензор | (45, 256) | float32 | |
политика/FC1 | ВозможностиDict | |||
политика/fc1/предвзятость | Тензор | (256,) | float32 | |
политика/fc1/вес | Тензор | (256, 256) | float32 | |
политика/last_fc | ВозможностиDict | |||
политика/last_fc/bias | Тензор | (24,) | float32 | |
политика/last_fc/вес | Тензор | (256, 24) | float32 | |
политика/нелинейность | Тензор | нить | ||
политика/выходное_распределение | Тензор | нить | ||
шаги | Набор данных | |||
шаги/действия | Тензор | (24,) | float32 | |
шаги/скидка | Тензор | float32 | ||
шаги/информация | ВозможностиDict | |||
шаги/информация/desired_orien | Тензор | (4,) | float32 | |
шаги/информация/qpos | Тензор | (30,) | float32 | |
шаги/информация/qvel | Тензор | (30,) | float32 | |
шаги/is_first | Тензор | логическое значение | ||
шаги/is_last | Тензор | логическое значение | ||
шаги/is_terminal | Тензор | логическое значение | ||
шаги/наблюдение | Тензор | (45,) | float32 | |
шаги/награда | Тензор | float32 |
- Примеры ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-expert
Размер загрузки :
249.90 MiB
Размер набора данных :
548.47 MiB
Автокэширование ( документация ): Нет
Расколы :
Расколоть | Примеры |
---|---|
'train' | 5000 |
- Структура функции :
FeaturesDict({
'algorithm': string,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(64,), dtype=float32),
'weight': Tensor(shape=(64, 45), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(64,), dtype=float32),
'weight': Tensor(shape=(64, 64), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(24, 64), dtype=float32),
}),
'last_fc_log_std': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(24, 64), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_std': Tensor(shape=(24,), dtype=float32),
'action_mean': Tensor(shape=(24,), dtype=float32),
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Функциональная документация :
Особенность | Сорт | Форма | Дтип | Описание |
---|---|---|---|---|
ВозможностиDict | ||||
алгоритм | Тензор | нить | ||
политика | ВозможностиDict | |||
политика/fc0 | ВозможностиDict | |||
политика/fc0/предвзятость | Тензор | (64,) | float32 | |
политика/fc0/вес | Тензор | (64, 45) | float32 | |
политика/FC1 | ВозможностиDict | |||
политика/fc1/предвзятость | Тензор | (64,) | float32 | |
политика/fc1/вес | Тензор | (64, 64) | float32 | |
политика/last_fc | ВозможностиDict | |||
политика/last_fc/bias | Тензор | (24,) | float32 | |
политика/last_fc/вес | Тензор | (24, 64) | float32 | |
политика/last_fc_log_std | ВозможностиDict | |||
политика/last_fc_log_std/bias | Тензор | (24,) | float32 | |
политика/last_fc_log_std/вес | Тензор | (24, 64) | float32 | |
политика/нелинейность | Тензор | нить | ||
политика/выходное_распределение | Тензор | нить | ||
шаги | Набор данных | |||
шаги/действия | Тензор | (24,) | float32 | |
шаги/скидка | Тензор | float32 | ||
шаги/информация | ВозможностиDict | |||
шаги/информация/action_log_std | Тензор | (24,) | float32 | |
шаги/информация/action_mean | Тензор | (24,) | float32 | |
шаги/информация/desired_orien | Тензор | (4,) | float32 | |
шаги/информация/qpos | Тензор | (30,) | float32 | |
шаги/информация/qvel | Тензор | (30,) | float32 | |
шаги/is_first | Тензор | логическое значение | ||
шаги/is_last | Тензор | логическое значение | ||
шаги/is_terminal | Тензор | логическое значение | ||
шаги/наблюдение | Тензор | (45,) | float32 | |
шаги/награда | Тензор | float32 |
- Примеры ( tfds.as_dataframe ):