- คำอธิบาย :
Corr2cause
การอนุมานเชิงสาเหตุถือเป็นหนึ่งในจุดเด่นของความฉลาดของมนุษย์
Corr2cause เป็นชุดข้อมูลขนาดใหญ่ที่มีตัวอย่างมากกว่า 400,000 ตัวอย่าง โดย LLM ที่มีอยู่ 17 รายการได้รับการประเมินในรายงานที่เกี่ยวข้อง
โดยรวมแล้ว Corr2cause มีตัวอย่าง 415,944 ตัวอย่าง โดยมีตัวอย่างที่ถูกต้อง 18.57% ความยาวเฉลี่ยของหลักฐานคือ 424.11 โทเค็น และสมมติฐาน 10.83 โทเค็น ข้อมูลแบ่งออกเป็นตัวอย่างการฝึกอบรม 411,452 ตัวอย่าง ตัวอย่างการพัฒนาและการทดสอบ 2,246 รายการ ตามลำดับ เนื่องจากวัตถุประสงค์หลักของชุดข้อมูลคือการวัดประสิทธิภาพการทำงานของ LLM ชุดการทดสอบและการพัฒนาจึงได้รับการจัดลำดับความสำคัญเพื่อให้ครอบคลุมกราฟทุกขนาดอย่างครอบคลุม
ซอร์สโค้ด :
tfds.datasets.corr2cause.Builder
รุ่น :
-
1.0.0
(ค่าเริ่มต้น): การเปิดตัวครั้งแรก
-
ขนาดดาวน์โหลด :
727.22 MiB
ขนาดชุดข้อมูล :
739.91 MiB
แคชอัตโนมัติ ( เอกสาร ): No
แยก :
แยก | ตัวอย่าง |
---|---|
'dev' | 2,246 |
'test' | 2,246 |
'train' | 411,452 |
- โครงสร้างคุณสมบัติ :
FeaturesDict({
'input': Text(shape=(), dtype=string),
'label': int64,
})
- เอกสารคุณสมบัติ :
คุณสมบัติ | ระดับ | รูปร่าง | ประเภทD | คำอธิบาย |
---|---|---|---|---|
คุณสมบัติDict | ||||
ป้อนข้อมูล | ข้อความ | เชือก | ||
ฉลาก | เทนเซอร์ | int64 |
คีย์ภายใต้การดูแล (ดู
as_supervised
doc ):None
รูปภาพ ( tfds.show_examples ): ไม่รองรับ
ตัวอย่าง ( tfds.as_dataframe ):
- การอ้างอิง :
@misc{jin2023large,
title={Can Large Language Models Infer Causation from Correlation?},
author={Zhijing Jin and Jiarui Liu and Zhiheng Lyu and Spencer Poff and Mrinmaya Sachan and Rada Mihalcea and Mona Diab and Bernhard Schölkopf},
year={2023},
eprint={2306.05836},
archivePrefix={arXiv},
primaryClass={cs.CL}
}