- คำอธิบาย :
คลังข้อมูลนี้มีโพสต์ที่ประมวลผลล่วงหน้าจากชุดข้อมูล Reddit ชุดข้อมูลประกอบด้วย 3,848,330 โพสต์ โดยมีความยาวเฉลี่ย 270 คำสำหรับเนื้อหา และ 28 คำสำหรับสรุป
คุณสมบัติรวมถึงสตริง: ผู้แต่ง, เนื้อหา, ร่างกายปกติ, เนื้อหา, สรุป, subreddit, subreddit_id เนื้อหาใช้เป็นเอกสารและสรุปใช้เป็นบทสรุป
เอกสารประกอบเพิ่มเติม : สำรวจเอกสารด้วยรหัส
รหัสแหล่งที่มา :
tfds.datasets.reddit.Builder
รุ่น :
-
1.0.0
(ค่าเริ่มต้น): ไม่มีบันทึกประจำรุ่น
-
ขนาดการดาวน์โหลด :
2.93 GiB
ขนาดชุดข้อมูล :
18.09 GiB
แคชอัตโนมัติ ( เอกสารประกอบ ): ไม่
แยก :
แยก | ตัวอย่าง |
---|---|
'train' | 3,848,330 |
- โครงสร้างคุณลักษณะ :
FeaturesDict({
'author': string,
'body': string,
'content': string,
'id': string,
'normalizedBody': string,
'subreddit': string,
'subreddit_id': string,
'summary': string,
})
- เอกสารคุณสมบัติ :
คุณสมบัติ | ระดับ | รูปร่าง | Dประเภท | คำอธิบาย |
---|---|---|---|---|
คุณสมบัติDict | ||||
ผู้เขียน | เทนเซอร์ | สตริง | ||
ร่างกาย | เทนเซอร์ | สตริง | ||
เนื้อหา | เทนเซอร์ | สตริง | ||
รหัส | เทนเซอร์ | สตริง | ||
ร่างกายปกติ | เทนเซอร์ | สตริง | ||
ซับเรดดิท | เทนเซอร์ | สตริง | ||
subreddit_id | เทนเซอร์ | สตริง | ||
สรุป | เทนเซอร์ | สตริง |
คีย์ภายใต้การดูแล (ดู
as_supervised
doc ):('content', 'summary')
รูปภาพ ( tfds.show_examples ): ไม่รองรับ
ตัวอย่าง ( tfds.as_dataframe ):
- การอ้างอิง :
@inproceedings{volske-etal-2017-tl,
title = "{TL};{DR}: Mining {R}eddit to Learn Automatic Summarization",
author = {V{\"o}lske, Michael and
Potthast, Martin and
Syed, Shahbaz and
Stein, Benno},
booktitle = "Proceedings of the Workshop on New Frontiers in Summarization",
month = sep,
year = "2017",
address = "Copenhagen, Denmark",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/W17-4508",
doi = "10.18653/v1/W17-4508",
pages = "59--63",
abstract = "Recent advances in automatic text summarization have used deep neural networks to generate high-quality abstractive summaries, but the performance of these models strongly depends on large amounts of suitable training data. We propose a new method for mining social media for author-provided summaries, taking advantage of the common practice of appending a {``}TL;DR{''} to long posts. A case study using a large Reddit crawl yields the Webis-TLDR-17 dataset, complementing existing corpora primarily from the news genre. Our technique is likely applicable to other social media sites and general web crawls.",
}