- 説明:
ほとんどの場合テーブルからピックプレイスを行う遠隔操作の Google ロボット
ホームページ: https://www.kaggle.com/datasets/google/bc-z-robot/Discussion/309201
ソースコード:
tfds.robotics.rtx.BcZ
バージョン:
-
0.1.0
(デフォルト): 初期リリース。
-
ダウンロードサイズ:
Unknown size
データセットのサイズ:
81.15 GiB
自動キャッシュ(ドキュメント): いいえ
分割:
スプリット | 例 |
---|---|
'train' | 39,350 |
'val' | 3,914 |
- 機能の構造:
FeaturesDict({
'steps': Dataset({
'action': FeaturesDict({
'future/axis_angle_residual': Tensor(shape=(30,), dtype=float32, description=The next 10 actions for the rotation. Each action is a 3D delta to add to the current axis angle.),
'future/target_close': Tensor(shape=(10,), dtype=int64, description=The next 10 actions for the gripper. Each action is the value the gripper closure should be changed to (notably it is *not* a delta.)),
'future/xyz_residual': Tensor(shape=(30,), dtype=float32, description=The next 10 actions for the positions. Each action is a 3D delta to add to current position.),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'episode_success': float32,
'image': Image(shape=(171, 213, 3), dtype=uint8, description=Camera image of the robot, downsampled 3x),
'natural_language_embedding': Tensor(shape=(512,), dtype=float32, description=An embedding of the task via Universal Sentence Encoder (https://tfhub.dev/google/universal-sentence-encoder/4)),
'natural_language_instruction': string,
'present/autonomous': int64,
'present/axis_angle': Tensor(shape=(3,), dtype=float32, description=The current rotation of the end effector in axis-angle representation.),
'present/intervention': int64,
'present/sensed_close': Tensor(shape=(1,), dtype=float32, description=How much the gripper is currently closed. Scaled from 0 to 1, but not all values from 0 to 1 are reachable. The range in the data is about 0.2 to 1),
'present/xyz': Tensor(shape=(3,), dtype=float32, description=The current position of the end effector in axis-angle representation, in robot frame),
'sequence_length': int64,
}),
'reward': Scalar(shape=(), dtype=float32),
}),
})
- 機能ドキュメント:
特徴 | クラス | 形 | Dタイプ | 説明 |
---|---|---|---|---|
特徴辞書 | ||||
ステップ | データセット | |||
ステップ/アクション | 特徴辞書 | |||
ステップ/アクション/未来/axis_angle_residual | テンソル | (30,) | float32 | ローテーションの次の 10 アクション。各アクションは、現在の軸角度に追加される 3D デルタです。 |
ステップ/アクション/将来/ターゲット_クローズ | テンソル | (10,) | int64 | グリッパーの次の 10 アクション。各アクションは、グリッパー クロージャを変更する必要がある値です (特に、これはデルタではありません)。 |
ステップ/アクション/将来/xyz_residual | テンソル | (30,) | float32 | ポジションに対する次の 10 のアクション。各アクションは、現在の位置に追加される 3D デルタです。 |
ステップ/is_first | テンソル | ブール | ||
ステップ/is_last | テンソル | ブール | ||
ステップ/is_terminal | テンソル | ブール | ||
ステップ/観察 | 特徴辞書 | |||
ステップ/観察/エピソード_成功 | テンソル | float32 | 0-1 の成功ラベル | |
手順・観察・イメージ | 画像 | (171, 213, 3) | uint8 | ロボットのカメラ画像、3 倍ダウンサンプリング |
ステップ/観察/natural_lang_embedding | テンソル | (512,) | float32 | Universal Sentence Encoder を介したタスクの埋め込み ( https://tfhub.dev/google/universal-sentence-encoder/4 ) |
ステップ/観察/natural_ language_instruction | テンソル | 弦 | ロボットに依頼されたタスク。 | |
ステップ/観察/現在/自律 | テンソル | int64 | エピソードは DAgger 経由で収集されます。これは、アクションがポリシーによるものであるか、遠隔操作者によるものであるかを表す 0/1 のラベルです。 1 = ポリシーによる。 | |
歩数/観察/現在/axis_angle | テンソル | (3,) | float32 | 軸角度表現でのエンドエフェクタの現在の回転。 |
ステップ/観察/現在/介入 | テンソル | int64 | エピソードは DAgger 経由で収集されます。これは、アクションがポリシーによるものであるか、遠隔操作者によるものであるかを表す 0/1 のラベルです。 1 = 遠隔操作者から。これは現在/自律の正反対です。 | |
ステップ/観察/現在/sensed_close | テンソル | (1,) | float32 | グリッパーが現在どのくらい閉じているか。 0 から 1 までスケールされますが、0 から 1 までのすべての値に到達できるわけではありません。データの範囲は約 0.2 ~ 1 です。 |
歩数/観察/現在/xyz | テンソル | (3,) | float32 | ロボットフレーム内の軸角度表現でのエンドエフェクタの現在位置 |
ステップ/観察/sequence_length | テンソル | int64 | エピソードの長さ | |
歩数/報酬 | スカラー | float32 |
監視キー(
as_supervised
docを参照):None
図( tfds.show_examples ): サポートされていません。
例( tfds.as_dataframe ):
- 引用:
@inproceedings{jang2021bc,
title={ {BC}-Z: Zero-Shot Task Generalization with Robotic Imitation Learning},
author={Eric Jang and Alex Irpan and Mohi Khansari and Daniel Kappler and Frederik Ebert and Corey Lynch and Sergey Levine and Chelsea Finn},
booktitle={5th Annual Conference on Robot Learning},
year={2021},
url={https://openreview.net/forum?id=8kbp23tSGYv} }