তথ্যসূত্র:
en
TFDS এ এই ডেটাসেট লোড করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:
ds = tfds.load('huggingface:wiki40b/en')
- বর্ণনা :
Clean-up text for 40+ Wikipedia languages editions of pages
correspond to entities. The datasets have train/dev/test splits per language.
The dataset is cleaned up by page filtering to remove disambiguation pages,
redirect pages, deleted pages, and non-entity pages. Each example contains the
wikidata id of the entity, and the full Wikipedia article after page processing
that removes non-content sections and structured objects.
- লাইসেন্স : কোনো পরিচিত লাইসেন্স নেই
- সংস্করণ : 1.1.0
- বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'test' | 162274 |
'train' | 2926536 |
'validation' | 163597 |
- বৈশিষ্ট্য :
{
"wikidata_id": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"version_id": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}