- 説明:
間違った原因
因果推論は人間の知性の特徴の 1 つです。
Corr2cause は 400,000 サンプルを超える大規模なデータセットであり、関連する論文では 17 の既存の LLM が評価されています。
全体として、Corr2cause には 415,944 個のサンプルが含まれており、そのうち 18.57% が有効なサンプルです。前提の平均長は 424.11 トークン、仮説は 10.83 トークンです。データは、それぞれ 411,452 個のトレーニング サンプル、2,246 個の開発サンプルとテスト サンプルに分割されます。データセットの主な目的は LLM のパフォーマンスのベンチマークであるため、テストおよび開発セットは、あらゆるサイズのグラフを包括的にカバーするように優先されています。
ソースコード:
tfds.datasets.corr2cause.Builder
バージョン:
-
1.0.0
(デフォルト): 初期リリース。
-
ダウンロードサイズ:
727.22 MiB
データセットのサイズ:
739.91 MiB
自動キャッシュ(ドキュメント): いいえ
分割:
スプリット | 例 |
---|---|
'dev' | 2,246 |
'test' | 2,246 |
'train' | 411,452 |
- 機能の構造:
FeaturesDict({
'input': Text(shape=(), dtype=string),
'label': int64,
})
- 機能ドキュメント:
特徴 | クラス | 形 | Dタイプ | 説明 |
---|---|---|---|---|
特徴辞書 | ||||
入力 | 文章 | 弦 | ||
ラベル | テンソル | int64 |
監視キー(
as_supervised
docを参照):None
図( tfds.show_examples ): サポートされていません。
例( tfds.as_dataframe ):
- 引用:
@misc{jin2023large,
title={Can Large Language Models Infer Causation from Correlation?},
author={Zhijing Jin and Jiarui Liu and Zhiheng Lyu and Spencer Poff and Mrinmaya Sachan and Rada Mihalcea and Mona Diab and Bernhard Schölkopf},
year={2023},
eprint={2306.05836},
archivePrefix={arXiv},
primaryClass={cs.CL}
}