তথ্যসূত্র:
20220301.de
TFDS এ এই ডেটাসেট লোড করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:
ds = tfds.load('huggingface:wikipedia/20220301.de')
- বর্ণনা :
Wikipedia dataset containing cleaned articles of all languages.
The datasets are built from the Wikipedia dump
(https://dumps.wikimedia.org/) with one split per language. Each example
contains the content of one full Wikipedia article with cleaning to strip
markdown and unwanted sections (references, etc.).
- লাইসেন্স : কোনো পরিচিত লাইসেন্স নেই
- সংস্করণ : 2.0.0
- বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 2665357 |
- বৈশিষ্ট্য :
{
"id": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"url": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"title": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
20220301.en
TFDS এ এই ডেটাসেট লোড করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:
ds = tfds.load('huggingface:wikipedia/20220301.en')
- বর্ণনা :
Wikipedia dataset containing cleaned articles of all languages.
The datasets are built from the Wikipedia dump
(https://dumps.wikimedia.org/) with one split per language. Each example
contains the content of one full Wikipedia article with cleaning to strip
markdown and unwanted sections (references, etc.).
- লাইসেন্স : কোনো পরিচিত লাইসেন্স নেই
- সংস্করণ : 2.0.0
- বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 6458670 |
- বৈশিষ্ট্য :
{
"id": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"url": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"title": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
20220301.fr
TFDS এ এই ডেটাসেট লোড করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:
ds = tfds.load('huggingface:wikipedia/20220301.fr')
- বর্ণনা :
Wikipedia dataset containing cleaned articles of all languages.
The datasets are built from the Wikipedia dump
(https://dumps.wikimedia.org/) with one split per language. Each example
contains the content of one full Wikipedia article with cleaning to strip
markdown and unwanted sections (references, etc.).
- লাইসেন্স : কোনো পরিচিত লাইসেন্স নেই
- সংস্করণ : 2.0.0
- বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 2402095 |
- বৈশিষ্ট্য :
{
"id": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"url": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"title": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
20220301.frr
TFDS এ এই ডেটাসেট লোড করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:
ds = tfds.load('huggingface:wikipedia/20220301.frr')
- বর্ণনা :
Wikipedia dataset containing cleaned articles of all languages.
The datasets are built from the Wikipedia dump
(https://dumps.wikimedia.org/) with one split per language. Each example
contains the content of one full Wikipedia article with cleaning to strip
markdown and unwanted sections (references, etc.).
- লাইসেন্স : কোনো পরিচিত লাইসেন্স নেই
- সংস্করণ : 2.0.0
- বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 15199 |
- বৈশিষ্ট্য :
{
"id": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"url": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"title": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
20220301.it
TFDS এ এই ডেটাসেট লোড করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:
ds = tfds.load('huggingface:wikipedia/20220301.it')
- বর্ণনা :
Wikipedia dataset containing cleaned articles of all languages.
The datasets are built from the Wikipedia dump
(https://dumps.wikimedia.org/) with one split per language. Each example
contains the content of one full Wikipedia article with cleaning to strip
markdown and unwanted sections (references, etc.).
- লাইসেন্স : কোনো পরিচিত লাইসেন্স নেই
- সংস্করণ : 2.0.0
- বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 1743035 |
- বৈশিষ্ট্য :
{
"id": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"url": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"title": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
20220301. সরল
TFDS এ এই ডেটাসেট লোড করতে নিম্নলিখিত কমান্ডটি ব্যবহার করুন:
ds = tfds.load('huggingface:wikipedia/20220301.simple')
- বর্ণনা :
Wikipedia dataset containing cleaned articles of all languages.
The datasets are built from the Wikipedia dump
(https://dumps.wikimedia.org/) with one split per language. Each example
contains the content of one full Wikipedia article with cleaning to strip
markdown and unwanted sections (references, etc.).
- লাইসেন্স : কোনো পরিচিত লাইসেন্স নেই
- সংস্করণ : 2.0.0
- বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 205328 |
- বৈশিষ্ট্য :
{
"id": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"url": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"title": {
"dtype": "string",
"id": null,
"_type": "Value"
},
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}