ויקיטקסט

הפניות:

wikitext-103-v1

השתמש בפקודה הבאה כדי לטעון מערך נתונים זה ב-TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-103-v1')
  • תיאור :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • רישיון : Creative Commons ייחוס-שיתוף זהה 4.0 בינלאומי (CC BY-SA 4.0)
  • גרסה : 1.0.0
  • פיצולים :
לְפַצֵל דוגמאות
'test' 4358
'train' 1801350
'validation' 3760
  • תכונות :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

wikitext-2-v1

השתמש בפקודה הבאה כדי לטעון מערך נתונים זה ב-TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-2-v1')
  • תיאור :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • רישיון : Creative Commons ייחוס-שיתוף זהה 4.0 בינלאומי (CC BY-SA 4.0)
  • גרסה : 1.0.0
  • פיצולים :
לְפַצֵל דוגמאות
'test' 4358
'train' 36718
'validation' 3760
  • תכונות :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

wikitext-103-raw-v1

השתמש בפקודה הבאה כדי לטעון מערך נתונים זה ב-TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-103-raw-v1')
  • תיאור :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • רישיון : Creative Commons ייחוס-שיתוף זהה 4.0 בינלאומי (CC BY-SA 4.0)
  • גרסה : 1.0.0
  • פיצולים :
לְפַצֵל דוגמאות
'test' 4358
'train' 1801350
'validation' 3760
  • תכונות :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}

wikitext-2-raw-v1

השתמש בפקודה הבאה כדי לטעון מערך נתונים זה ב-TFDS:

ds = tfds.load('huggingface:wikitext/wikitext-2-raw-v1')
  • תיאור :
The WikiText language modeling dataset is a collection of over 100 million tokens extracted from the set of verified
 Good and Featured articles on Wikipedia. The dataset is available under the Creative Commons Attribution-ShareAlike
 License.
  • רישיון : Creative Commons ייחוס-שיתוף זהה 4.0 בינלאומי (CC BY-SA 4.0)
  • גרסה : 1.0.0
  • פיצולים :
לְפַצֵל דוגמאות
'test' 4358
'train' 36718
'validation' 3760
  • תכונות :
{
    "text": {
        "dtype": "string",
        "id": null,
        "_type": "Value"
    }
}