सन्दर्भ:
विकिपाठ-103-v1
इस डेटासेट को TFDS में लोड करने के लिए निम्नलिखित कमांड का उपयोग करें:
ds = tfds.load('huggingface:wikitext/wikitext-103-v1')
- विवरण :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- लाइसेंस : क्रिएटिव कॉमन्स एट्रिब्यूशन-शेयरअलाइक 4.0 इंटरनेशनल (CC BY-SA 4.0)
- संस्करण : 1.0.0
- विभाजन :
विभाजित करना | उदाहरण |
---|---|
'test' | 4358 |
'train' | 1801350 |
'validation' | 3760 |
- विशेषताएँ :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
विकिपाठ-2-v1
इस डेटासेट को TFDS में लोड करने के लिए निम्नलिखित कमांड का उपयोग करें:
ds = tfds.load('huggingface:wikitext/wikitext-2-v1')
- विवरण :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- लाइसेंस : क्रिएटिव कॉमन्स एट्रिब्यूशन-शेयरअलाइक 4.0 इंटरनेशनल (CC BY-SA 4.0)
- संस्करण : 1.0.0
- विभाजन :
विभाजित करना | उदाहरण |
---|---|
'test' | 4358 |
'train' | 36718 |
'validation' | 3760 |
- विशेषताएँ :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
विकिपाठ-103-कच्चा-v1
इस डेटासेट को TFDS में लोड करने के लिए निम्नलिखित कमांड का उपयोग करें:
ds = tfds.load('huggingface:wikitext/wikitext-103-raw-v1')
- विवरण :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- लाइसेंस : क्रिएटिव कॉमन्स एट्रिब्यूशन-शेयरअलाइक 4.0 इंटरनेशनल (CC BY-SA 4.0)
- संस्करण : 1.0.0
- विभाजन :
विभाजित करना | उदाहरण |
---|---|
'test' | 4358 |
'train' | 1801350 |
'validation' | 3760 |
- विशेषताएँ :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}
विकिपाठ-2-कच्चा-v1
इस डेटासेट को TFDS में लोड करने के लिए निम्नलिखित कमांड का उपयोग करें:
ds = tfds.load('huggingface:wikitext/wikitext-2-raw-v1')
- विवरण :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
License.
- लाइसेंस : क्रिएटिव कॉमन्स एट्रिब्यूशन-शेयरअलाइक 4.0 इंटरनेशनल (CC BY-SA 4.0)
- संस्करण : 1.0.0
- विभाजन :
विभाजित करना | उदाहरण |
---|---|
'test' | 4358 |
'train' | 36718 |
'validation' | 3760 |
- विशेषताएँ :
{
"text": {
"dtype": "string",
"id": null,
"_type": "Value"
}
}