- Descripción :
Generación de titulares en un corpus de pares de artículos de Gigaword que consta de alrededor de 4 millones de artículos. Use los 'org_data' proporcionados por https://github.com/microsoft/unilm/ que es idéntico a https://github.com/harvardnlp/sent-summary pero con mejor formato.
Hay dos características: - documento: artículo. - resumen: titular.
Página de inicio: https://github.com/harvardnlp/sent-summary
Código fuente :
tfds.summarization.Gigaword
Versiones :
-
1.2.0
(predeterminado): Sin notas de la versión.
-
Tamaño de la descarga :
551.61 MiB
Tamaño del conjunto de datos :
1.02 GiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 1,951 |
'train' | 3,803,957 |
'validation' | 189,651 |
- Estructura de características :
FeaturesDict({
'document': Text(shape=(), dtype=string),
'summary': Text(shape=(), dtype=string),
})
- Documentación de características :
Rasgo | Clase | Forma | Tipo D | Descripción |
---|---|---|---|---|
CaracterísticasDict | ||||
documento | Texto | cuerda | ||
resumen | Texto | cuerda |
Claves supervisadas (Ver
as_supervised
):('document', 'summary')
Figura ( tfds.show_examples ): no compatible.
Ejemplos ( tfds.as_dataframe ):
- Cita :
@article{graff2003english,
title={English gigaword},
author={Graff, David and Kong, Junbo and Chen, Ke and Maeda, Kazuaki},
journal={Linguistic Data Consortium, Philadelphia},
volume={4},
number={1},
pages={34},
year={2003}
}
@article{Rush_2015,
title={A Neural Attention Model for Abstractive Sentence Summarization},
url={http://dx.doi.org/10.18653/v1/D15-1044},
DOI={10.18653/v1/d15-1044},
journal={Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing},
publisher={Association for Computational Linguistics},
author={Rush, Alexander M. and Chopra, Sumit and Weston, Jason},
year={2015}
}