مراجع:
wikitext-103-v1
برای بارگذاری این مجموعه داده در TFDS از دستور زیر استفاده کنید:
ds = tfds.load('huggingface:wikitext/wikitext-103-v1')
- توضیحات :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- مجوز : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
- نسخه : 1.0.0
- تقسیمات :
تقسیم کنید | نمونه ها |
---|---|
'test' | 4358 |
'train' | 1801350 |
'validation' | 3760 |
- ویژگی ها :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
wikitext-2-v1
برای بارگذاری این مجموعه داده در TFDS از دستور زیر استفاده کنید:
ds = tfds.load('huggingface:wikitext/wikitext-2-v1')
- توضیحات :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- مجوز : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
- نسخه : 1.0.0
- تقسیمات :
تقسیم کنید | نمونه ها |
---|---|
'test' | 4358 |
'train' | 36718 |
'validation' | 3760 |
- ویژگی ها :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
wikitext-103-raw-v1
برای بارگذاری این مجموعه داده در TFDS از دستور زیر استفاده کنید:
ds = tfds.load('huggingface:wikitext/wikitext-103-raw-v1')
- توضیحات :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- مجوز : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
- نسخه : 1.0.0
- تقسیمات :
تقسیم کنید | نمونه ها |
---|---|
'test' | 4358 |
'train' | 1801350 |
'validation' | 3760 |
- ویژگی ها :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
wikitext-2-raw-v1
برای بارگذاری این مجموعه داده در TFDS از دستور زیر استفاده کنید:
ds = tfds.load('huggingface:wikitext/wikitext-2-raw-v1')
- توضیحات :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- مجوز : Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
- نسخه : 1.0.0
- تقسیمات :
تقسیم کنید | نمونه ها |
---|---|
'test' | 4358 |
'train' | 36718 |
'validation' | 3760 |
- ویژگی ها :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}