- opis :
Aktualizacja danych E2E NLG Challenge z oczyszczonymi MR. Dane E2E zawierają reprezentację znaczeń opartą na aktach dialogowych (MR) w domenie restauracyjnej i do 5 odniesień w języku naturalnym, co trzeba przewidzieć.
Dodatkowa dokumentacja : Przeglądaj dokumenty z kodem na
Strona główna : https://github.com/tuetschek/e2e-cleaning
Kod źródłowy :
tfds.datasets.e2e_cleaned.Builder
Wersje :
-
0.1.0
(domyślnie): Brak informacji o wersji.
-
Rozmiar pliku do pobrania :
13.92 MiB
Rozmiar zestawu danych :
14.70 MiB
Automatyczne buforowanie ( dokumentacja ): Tak
Podziały :
Rozdzielać | Przykłady |
---|---|
'test' | 4693 |
'train' | 33525 |
'validation' | 4299 |
- Struktura funkcji :
FeaturesDict({
'input_text': FeaturesDict({
'table': Sequence({
'column_header': string,
'content': string,
'row_number': int16,
}),
}),
'target_text': string,
})
- Dokumentacja funkcji :
Funkcja | Klasa | Kształt | Typ D | Opis |
---|---|---|---|---|
FunkcjeDict | ||||
Wprowadź tekst | FunkcjeDict | |||
tekst_wejściowy/tabela | Sekwencja | |||
tekst_wejściowy/tabela/nagłówek_kolumny | Napinacz | strunowy | ||
tekst_wejściowy/tabela/treść | Napinacz | strunowy | ||
tekst_wejściowy/tabela/numer_wiersza | Napinacz | int16 | ||
tekst_docelowy | Napinacz | strunowy |
Nadzorowane klucze (zobacz dokument
as_supervised
):('input_text', 'target_text')
Rysunek ( tfds.show_examples ): Nieobsługiwany.
Przykłady ( tfds.as_dataframe ):
- Cytat :
@inproceedings{dusek-etal-2019-semantic,
title = "Semantic Noise Matters for Neural Natural Language Generation",
author = "Du{\v{s} }ek, Ond{\v{r} }ej and
Howcroft, David M. and
Rieser, Verena",
booktitle = "Proceedings of the 12th International Conference on Natural Language Generation",
month = oct # "{--}" # nov,
year = "2019",
address = "Tokyo, Japan",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/W19-8652",
doi = "10.18653/v1/W19-8652",
pages = "421--426",
abstract = "Neural natural language generation (NNLG) systems are known for their pathological outputs, i.e. generating text which is unrelated to the input specification. In this paper, we show the impact of semantic noise on state-of-the-art NNLG models which implement different semantic control mechanisms. We find that cleaned data can improve semantic correctness by up to 97{\%}, while maintaining fluency. We also find that the most common error is omitting information, rather than hallucination.",
}