- Descrição :
D4RL é um benchmark de código aberto para aprendizagem por reforço offline. Ele fornece ambientes e conjuntos de dados padronizados para algoritmos de treinamento e benchmarking.
Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.
Descrição da configuração : veja mais detalhes sobre a tarefa e suas versões em https://github.com/rail-berkeley/d4rl/wiki/Tasks#gym
Página inicial : https://sites.google.com/view/d4rl-anonymous
Código fonte :
tfds.d4rl.d4rl_mujoco_halfcheetah.D4rlMujocoHalfcheetah
Versões :
-
1.0.0
: Versão inicial. -
1.0.1
: Suporte para metadados de episódios e etapas e unificação do formato de recompensa em todas as configurações. -
1.1.0
: Adicionado is_last. -
1.2.0
(padrão): Atualizado para levar em conta a próxima observação.
-
Chaves supervisionadas (consulte o documento
as_supervised
):None
Figura ( tfds.show_examples ): Não suportado.
Citação :
@misc{fu2020d4rl,
title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
year={2020},
eprint={2004.07219},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
d4rl_mujoco_halfcheetah/v0-expert (configuração padrão)
Tamanho do download :
83.44 MiB
Tamanho do conjunto de dados :
98.43 MiB
Armazenado em cache automaticamente ( documentação ): Sim
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.002 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v0-medium
Tamanho do download :
82.92 MiB
Tamanho do conjunto de dados :
98.43 MiB
Armazenado em cache automaticamente ( documentação ): Sim
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.002 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v0-medium-expert
Tamanho do download :
166.36 MiB
Tamanho do conjunto de dados :
196.86 MiB
Armazenado em cache automaticamente ( documentação ): somente quando
shuffle_files=False
(train)Divisões :
Dividir | Exemplos |
---|---|
'train' | 2.004 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v0-mixed
Tamanho do download :
8.60 MiB
Tamanho do conjunto de dados :
9.94 MiB
Armazenado em cache automaticamente ( documentação ): Sim
Divisões :
Dividir | Exemplos |
---|---|
'train' | 101 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v0-random
Tamanho do download :
84.79 MiB
Tamanho do conjunto de dados :
98.43 MiB
Armazenado em cache automaticamente ( documentação ): Sim
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.002 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v1-expert
Tamanho do download :
146.94 MiB
Tamanho do conjunto de dados :
451.88 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 17), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 256), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'last_fc_log_std': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float32,
'qpos': Tensor(shape=(9,), dtype=float32),
'qvel': Tensor(shape=(9,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
política | RecursosDict | |||
política/fc0 | RecursosDict | |||
política/fc0/bias | Tensor | (256,) | float32 | |
política/fc0/peso | Tensor | (256, 17) | float32 | |
política/fc1 | RecursosDict | |||
política/fc1/preconceito | Tensor | (256,) | float32 | |
política/fc1/peso | Tensor | (256, 256) | float32 | |
política/last_fc | RecursosDict | |||
política/last_fc/bias | Tensor | (6,) | float32 | |
política/last_fc/peso | Tensor | (6, 256) | float32 | |
política/last_fc_log_std | RecursosDict | |||
política/last_fc_log_std/bias | Tensor | (6,) | float32 | |
política/last_fc_log_std/peso | Tensor | (6, 256) | float32 | |
política/não linearidade | Tensor | corda | ||
política/output_distribution | Tensor | corda | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float32 | ||
etapas/informações/qpos | Tensor | (9,) | float32 | |
passos/informações/qvel | Tensor | (9,) | float32 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v1-medium
Tamanho do download :
146.65 MiB
Tamanho do conjunto de dados :
451.88 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 17), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 256), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'last_fc_log_std': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float32,
'qpos': Tensor(shape=(9,), dtype=float32),
'qvel': Tensor(shape=(9,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
política | RecursosDict | |||
política/fc0 | RecursosDict | |||
política/fc0/bias | Tensor | (256,) | float32 | |
política/fc0/peso | Tensor | (256, 17) | float32 | |
política/fc1 | RecursosDict | |||
política/fc1/preconceito | Tensor | (256,) | float32 | |
política/fc1/peso | Tensor | (256, 256) | float32 | |
política/last_fc | RecursosDict | |||
política/last_fc/bias | Tensor | (6,) | float32 | |
política/last_fc/peso | Tensor | (6, 256) | float32 | |
política/last_fc_log_std | RecursosDict | |||
política/last_fc_log_std/bias | Tensor | (6,) | float32 | |
política/last_fc_log_std/peso | Tensor | (6, 256) | float32 | |
política/não linearidade | Tensor | corda | ||
política/output_distribution | Tensor | corda | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float32 | ||
etapas/informações/qpos | Tensor | (9,) | float32 | |
passos/informações/qvel | Tensor | (9,) | float32 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v1-medium-expert
Tamanho do download :
293.00 MiB
Tamanho do conjunto de dados :
342.37 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 2.000 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float32,
'qpos': Tensor(shape=(9,), dtype=float32),
'qvel': Tensor(shape=(9,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float32 | ||
etapas/informações/qpos | Tensor | (9,) | float32 | |
passos/informações/qvel | Tensor | (9,) | float32 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v1-medium-replay
Tamanho do download :
57.68 MiB
Tamanho do conjunto de dados :
34.59 MiB
Armazenado em cache automaticamente ( documentação ): Sim
Divisões :
Dividir | Exemplos |
---|---|
'train' | 202 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float64),
'discount': float64,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float64),
'reward': float64,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float64 | |
passos/desconto | Tensor | float64 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float64 | |
passos/recompensa | Tensor | float64 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v1-full-replay
Tamanho do download :
285.01 MiB
Tamanho do conjunto de dados :
171.22 MiB
Armazenado em cache automaticamente ( documentação ): somente quando
shuffle_files=False
(train)Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float64),
'discount': float64,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float64),
'reward': float64,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float64 | |
passos/desconto | Tensor | float64 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float64 | |
passos/recompensa | Tensor | float64 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v1-random
Tamanho do download :
145.19 MiB
Tamanho do conjunto de dados :
171.18 MiB
Armazenado em cache automaticamente ( documentação ): somente quando
shuffle_files=False
(train)Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float32,
'qpos': Tensor(shape=(9,), dtype=float32),
'qvel': Tensor(shape=(9,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float32 | ||
etapas/informações/qpos | Tensor | (9,) | float32 | |
passos/informações/qvel | Tensor | (9,) | float32 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v2-expert
Tamanho do download :
226.46 MiB
Tamanho do conjunto de dados :
451.88 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 17), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 256), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'last_fc_log_std': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
política | RecursosDict | |||
política/fc0 | RecursosDict | |||
política/fc0/bias | Tensor | (256,) | float32 | |
política/fc0/peso | Tensor | (256, 17) | float32 | |
política/fc1 | RecursosDict | |||
política/fc1/preconceito | Tensor | (256,) | float32 | |
política/fc1/peso | Tensor | (256, 256) | float32 | |
política/last_fc | RecursosDict | |||
política/last_fc/bias | Tensor | (6,) | float32 | |
política/last_fc/peso | Tensor | (6, 256) | float32 | |
política/last_fc_log_std | RecursosDict | |||
política/last_fc_log_std/bias | Tensor | (6,) | float32 | |
política/last_fc_log_std/peso | Tensor | (6, 256) | float32 | |
política/não linearidade | Tensor | corda | ||
política/output_distribution | Tensor | corda | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v2-full-replay
Tamanho do download :
277.88 MiB
Tamanho do conjunto de dados :
171.22 MiB
Armazenado em cache automaticamente ( documentação ): somente quando
shuffle_files=False
(train)Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v2-medium
Tamanho do download :
226.71 MiB
Tamanho do conjunto de dados :
451.88 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 17), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 256), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'last_fc_log_std': FeaturesDict({
'bias': Tensor(shape=(6,), dtype=float32),
'weight': Tensor(shape=(6, 256), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
política | RecursosDict | |||
política/fc0 | RecursosDict | |||
política/fc0/bias | Tensor | (256,) | float32 | |
política/fc0/peso | Tensor | (256, 17) | float32 | |
política/fc1 | RecursosDict | |||
política/fc1/preconceito | Tensor | (256,) | float32 | |
política/fc1/peso | Tensor | (256, 256) | float32 | |
política/last_fc | RecursosDict | |||
política/last_fc/bias | Tensor | (6,) | float32 | |
política/last_fc/peso | Tensor | (6, 256) | float32 | |
política/last_fc_log_std | RecursosDict | |||
política/last_fc_log_std/bias | Tensor | (6,) | float32 | |
política/last_fc_log_std/peso | Tensor | (6, 256) | float32 | |
política/não linearidade | Tensor | corda | ||
política/output_distribution | Tensor | corda | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v2-medium-expert
Tamanho do download :
452.58 MiB
Tamanho do conjunto de dados :
342.37 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 2.000 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v2-medium-replay
Tamanho do download :
56.69 MiB
Tamanho do conjunto de dados :
34.59 MiB
Armazenado em cache automaticamente ( documentação ): Sim
Divisões :
Dividir | Exemplos |
---|---|
'train' | 202 |
- Estrutura de recursos :
FeaturesDict({
'algorithm': string,
'iteration': int32,
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
algoritmo | Tensor | corda | ||
iteração | Tensor | int32 | ||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):
d4rl_mujoco_halfcheetah/v2-random
Tamanho do download :
226.34 MiB
Tamanho do conjunto de dados :
171.18 MiB
Armazenado em cache automaticamente ( documentação ): somente quando
shuffle_files=False
(train)Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.000 |
- Estrutura de recursos :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(6,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_probs': float64,
'qpos': Tensor(shape=(9,), dtype=float64),
'qvel': Tensor(shape=(9,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(17,), dtype=float32),
'reward': float32,
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
passos | Conjunto de dados | |||
etapas/ação | Tensor | (6,) | float32 | |
passos/desconto | Tensor | float32 | ||
etapas/informações | RecursosDict | |||
etapas/informações/action_log_probs | Tensor | float64 | ||
etapas/informações/qpos | Tensor | (9,) | float64 | |
passos/informações/qvel | Tensor | (9,) | float64 | |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/observação | Tensor | (17,) | float32 | |
passos/recompensa | Tensor | float32 |
- Exemplos ( tfds.as_dataframe ):