- الوصف :
تحتوي هذه المجموعة على مشاركات مُعالجة مسبقًا من مجموعة بيانات Reddit. تتكون مجموعة البيانات من 3848330 منشورًا بمتوسط طول 270 كلمة للمحتوى و 28 كلمة للملخص.
تتضمن الميزات سلاسل: المؤلف ، الجسم ، الجسم الطبيعي ، المحتوى ، الملخص ، subreddit ، subreddit_id. يتم استخدام المحتوى كمستند ويتم استخدام الملخص كملخص.
وثائق إضافية : استكشف في الأوراق باستخدام الرمز
الصفحة الرئيسية : https://github.com/webis-de/webis-tldr-17-corpus
كود المصدر :
tfds.datasets.reddit.Builder
إصدارات :
-
1.0.0
(افتراضي): لا توجد ملاحظات حول الإصدار.
-
حجم التحميل :
2.93 GiB
حجم مجموعة البيانات :
18.09 GiB
التخزين المؤقت التلقائي ( التوثيق ): لا
الانقسامات :
انشق، مزق | أمثلة |
---|---|
'train' | 3،848،330 |
- هيكل الميزة :
FeaturesDict({
'author': string,
'body': string,
'content': string,
'id': string,
'normalizedBody': string,
'subreddit': string,
'subreddit_id': string,
'summary': string,
})
- وثائق الميزة :
ميزة | فصل | شكل | نوع | وصف |
---|---|---|---|---|
الميزات | ||||
مؤلف | موتر | سلسلة | ||
الجسم | موتر | سلسلة | ||
المحتوى | موتر | سلسلة | ||
هوية شخصية | موتر | سلسلة | ||
تطبيع الجسم | موتر | سلسلة | ||
subreddit | موتر | سلسلة | ||
subreddit_id | موتر | سلسلة | ||
ملخص | موتر | سلسلة |
المفاتيح الخاضعة للإشراف (راجع المستند
as_supervised
):('content', 'summary')
الشكل ( tfds.show_examples ): غير مدعوم.
أمثلة ( tfds.as_dataframe ):
- الاقتباس :
@inproceedings{volske-etal-2017-tl,
title = "{TL};{DR}: Mining {R}eddit to Learn Automatic Summarization",
author = {V{\"o}lske, Michael and
Potthast, Martin and
Syed, Shahbaz and
Stein, Benno},
booktitle = "Proceedings of the Workshop on New Frontiers in Summarization",
month = sep,
year = "2017",
address = "Copenhagen, Denmark",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/W17-4508",
doi = "10.18653/v1/W17-4508",
pages = "59--63",
abstract = "Recent advances in automatic text summarization have used deep neural networks to generate high-quality abstractive summaries, but the performance of these models strongly depends on large amounts of suitable training data. We propose a new method for mining social media for author-provided summaries, taking advantage of the common practice of appending a {``}TL;DR{''} to long posts. A case study using a large Reddit crawl yields the Webis-TLDR-17 dataset, complementing existing corpora primarily from the news genre. Our technique is likely applicable to other social media sites and general web crawls.",
}