- Descripción :
La tarea compartida MRQA 2019 se centra en la generalización en la respuesta a preguntas. Un sistema eficaz de respuesta a preguntas debe hacer más que simplemente interpolar del conjunto de entrenamiento para responder ejemplos de prueba extraídos de la misma distribución: también debe poder extrapolar a ejemplos fuera de distribución, un desafío significativamente más difícil.
MRQA adapta y unifica múltiples conjuntos de datos de respuesta a preguntas distintos (subconjuntos cuidadosamente seleccionados de conjuntos de datos existentes) en el mismo formato (formato SQuAD). Entre ellos, se pusieron a disposición seis conjuntos de datos para entrenamiento y seis conjuntos de datos para prueba. Pequeñas porciones de los conjuntos de datos de entrenamiento se mantuvieron como datos en el dominio que pueden usarse para el desarrollo. Los conjuntos de datos de prueba solo contienen datos fuera del dominio. Este punto de referencia se publica como parte de la tarea compartida MRQA 2019.
Se puede encontrar más información en: <a href="https://mrqa.github.io/2019/shared.html">https://mrqa.github.io/2019/shared.html</a>
.
Documentación adicional : Explore en Papers With Code
Página de inicio: https://mrqa.github.io/2019/shared.html
Código fuente :
tfds.text.mrqa.MRQA
Versiones :
-
1.0.0
(predeterminado): versión inicial.
-
Estructura de características :
FeaturesDict({
'answers': Sequence(string),
'context': string,
'context_tokens': Sequence({
'offsets': int32,
'tokens': string,
}),
'detected_answers': Sequence({
'char_spans': Sequence({
'end': int32,
'start': int32,
}),
'text': string,
'token_spans': Sequence({
'end': int32,
'start': int32,
}),
}),
'qid': string,
'question': string,
'question_tokens': Sequence({
'offsets': int32,
'tokens': string,
}),
'subset': string,
})
- Documentación de características :
Rasgo | Clase | Forma | Tipo D | Descripción |
---|---|---|---|---|
CaracterísticasDict | ||||
respuestas | Secuencia (tensor) | (Ninguna,) | cuerda | |
contexto | Tensor | cuerda | ||
fichas_de_contexto | Secuencia | |||
contexto_tokens/compensaciones | Tensor | int32 | ||
context_tokens/tokens | Tensor | cuerda | ||
respuestas_detectadas | Secuencia | |||
detectado_respuestas/char_spans | Secuencia | |||
detectado_respuestas/char_spans/end | Tensor | int32 | ||
detectado_respuestas/char_spans/inicio | Tensor | int32 | ||
respuestas_detectadas/texto | Tensor | cuerda | ||
respuestas_detectadas/token_spans | Secuencia | |||
respuestas_detectadas/token_spans/fin | Tensor | int32 | ||
respuestas_detectadas/token_spans/inicio | Tensor | int32 | ||
qid | Tensor | cuerda | ||
pregunta | Tensor | cuerda | ||
fichas_de_pregunta | Secuencia | |||
question_tokens/compensaciones | Tensor | int32 | ||
question_tokens/fichas | Tensor | cuerda | ||
subconjunto | Tensor | cuerda |
Claves supervisadas (Ver
as_supervised
doc ):None
Figura ( tfds.show_examples ): no compatible.
mrqa/squad (configuración predeterminada)
Descripción de la configuración : el conjunto de datos SQuAD (Stanford Question Answering Dataset) se utiliza como base para el formato de tareas compartidas. A los trabajadores colectivos se les muestran párrafos de Wikipedia y se les pide que escriban preguntas con respuestas extractivas.
Tamaño de la descarga :
29.66 MiB
Tamaño del conjunto de datos :
271.43 MiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'train' | 86,588 |
'validation' | 10,507 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{rajpurkar-etal-2016-squad,
title = "{SQ}u{AD}: 100,000+ Questions for Machine Comprehension of Text",
author = "Rajpurkar, Pranav and
Zhang, Jian and
Lopyrev, Konstantin and
Liang, Percy",
booktitle = "Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing",
month = nov,
year = "2016",
address = "Austin, Texas",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D16-1264",
doi = "10.18653/v1/D16-1264",
pages = "2383--2392",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/noticias_qa
Descripción de la configuración : dos conjuntos de trabajadores colaborativos hacen y responden preguntas basadas en artículos de noticias de CNN. Los "interrogadores" ven solo el título y el resumen del artículo, mientras que los "respondedores" ven el artículo completo. Las preguntas que no tienen respuesta o que están marcadas en el conjunto de datos para no estar de acuerdo con el anotador se descartan.
Tamaño de la descarga :
56.83 MiB
Tamaño del conjunto de datos :
654.25 MiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'train' | 74,160 |
'validation' | 4,212 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{trischler-etal-2017-newsqa,
title = "{N}ews{QA}: A Machine Comprehension Dataset",
author = "Trischler, Adam and
Wang, Tong and
Yuan, Xingdi and
Harris, Justin and
Sordoni, Alessandro and
Bachman, Philip and
Suleman, Kaheer",
booktitle = "Proceedings of the 2nd Workshop on Representation Learning for {NLP}",
month = aug,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/W17-2623",
doi = "10.18653/v1/W17-2623",
pages = "191--200",
}
#
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/trivia_qa
Descripción de la configuración : los pares de preguntas y respuestas provienen de sitios web de preguntas y respuestas. Se utiliza la versión web de TriviaQA, donde los contextos se recuperan de los resultados de una consulta de búsqueda de Bing.
Tamaño de la descarga :
383.14 MiB
Tamaño del conjunto de datos :
772.75 MiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'train' | 61,688 |
'validation' | 7,785 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{joshi-etal-2017-triviaqa,
title = "{T}rivia{QA}: A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension",
author = "Joshi, Mandar and
Choi, Eunsol and
Weld, Daniel and
Zettlemoyer, Luke",
booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/P17-1147",
doi = "10.18653/v1/P17-1147",
pages = "1601--1611",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/buscar_qa
Descripción de la configuración : los pares de preguntas y respuestas provienen de Jeopardy! Programa de televisión. Los contextos se componen de fragmentos recuperados de una consulta de búsqueda de Google.
Tamaño de la descarga :
699.86 MiB
Tamaño del conjunto de datos :
1.38 GiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'train' | 117,384 |
'validation' | 16,980 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@article{dunn2017searchqa,
title={Searchqa: A new q\&a dataset augmented with context from a search engine},
author={Dunn, Matthew and Sagun, Levent and Higgins, Mike and Guney, V Ugur and Cirik, Volkan and Cho, Kyunghyun},
journal={arXiv preprint arXiv:1704.05179},
year={2017}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/hotpot_qa
Descripción de la configuración : a los trabajadores colectivos se les muestran dos párrafos vinculados a entidades de Wikipedia y se les pide que escriban y respondan preguntas que requieren un razonamiento de varios saltos para resolver. En la configuración original, estos párrafos se mezclan con párrafos de distracción adicionales para dificultar la inferencia. Aquí, los párrafos distractores no están incluidos.
Tamaño de la descarga :
111.98 MiB
Tamaño del conjunto de datos :
272.87 MiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'train' | 72,928 |
'validation' | 5,901 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{yang-etal-2018-hotpotqa,
title = "{H}otpot{QA}: A Dataset for Diverse, Explainable Multi-hop Question Answering",
author = "Yang, Zhilin and
Qi, Peng and
Zhang, Saizheng and
Bengio, Yoshua and
Cohen, William and
Salakhutdinov, Ruslan and
Manning, Christopher D.",
booktitle = "Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing",
month = oct # "-" # nov,
year = "2018",
address = "Brussels, Belgium",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D18-1259",
doi = "10.18653/v1/D18-1259",
pages = "2369--2380",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/preguntas_naturales
Descripción de la configuración : las preguntas se recopilan a partir de consultas de búsqueda de información al motor de búsqueda de Google por parte de usuarios reales en condiciones naturales. Las respuestas a las preguntas se anotan en una página de Wikipedia recuperada por crowdworkers. Se recopilan dos tipos de anotaciones: 1) el cuadro delimitador HTML que contiene suficiente información para inferir completamente la respuesta a la pregunta (Respuesta larga) y 2) el subsegmento o subsegmentos dentro del cuadro delimitador que comprende la respuesta real (Respuesta corta ). Solo se usan los ejemplos que tienen respuestas cortas y la respuesta larga se usa como contexto.
Tamaño de la descarga :
121.15 MiB
Tamaño del conjunto de datos :
339.03 MiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'train' | 104,071 |
'validation' | 12,836 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@article{kwiatkowski-etal-2019-natural,
title = "Natural Questions: A Benchmark for Question Answering Research",
author = "Kwiatkowski, Tom and
Palomaki, Jennimaria and
Redfield, Olivia and
Collins, Michael and
Parikh, Ankur and
Alberti, Chris and
Epstein, Danielle and
Polosukhin, Illia and
Devlin, Jacob and
Lee, Kenton and
Toutanova, Kristina and
Jones, Llion and
Kelcey, Matthew and
Chang, Ming-Wei and
Dai, Andrew M. and
Uszkoreit, Jakob and
Le, Quoc and
Petrov, Slav",
journal = "Transactions of the Association for Computational Linguistics",
volume = "7",
year = "2019",
address = "Cambridge, MA",
publisher = "MIT Press",
url = "https://aclanthology.org/Q19-1026",
doi = "10.1162/tacl_a_00276",
pages = "452--466",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/bio_asq
Descripción de la configuración : BioASQ, un desafío sobre indexación semántica biomédica a gran escala y respuesta a preguntas, contiene pares de preguntas y respuestas creados por expertos en el dominio. Luego se vinculan manualmente a múltiples artículos científicos relacionados (PubMed). El resumen completo de cada uno de los artículos vinculados se descarga y utiliza como contextos individuales (p. ej., una sola pregunta se puede vincular a varios artículos independientes para crear varios pares de contexto de control de calidad). Se descartan los resúmenes que no contienen exactamente la respuesta.
Tamaño de descarga :
2.54 MiB
Tamaño del conjunto de datos :
6.70 MiB
Almacenamiento automático en caché ( documentación ): Sí
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 1,504 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@article{tsatsaronis2015overview,
title={An overview of the BIOASQ large-scale biomedical semantic indexing and question answering competition},
author={Tsatsaronis, George and Balikas, Georgios and Malakasiotis, Prodromos and Partalas, Ioannis and Zschunke, Matthias and Alvers, Michael R and Weissenborn, Dirk and Krithara, Anastasia and Petridis, Sergios and Polychronopoulos, Dimitris and others},
journal={BMC bioinformatics},
volume={16},
number={1},
pages={1--28},
year={2015},
publisher={Springer}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/gota
Descripción de la configuración : se recopilaron ejemplos DROP (razonamiento discreto sobre el contenido de los párrafos) de manera similar a SQuAD, donde se pide a los trabajadores colaborativos que creen pares de preguntas y respuestas a partir de párrafos de Wikipedia. Las preguntas se centran en el razonamiento cuantitativo y el conjunto de datos original contiene respuestas numéricas no extractivas, así como respuestas de texto extractivas. Se utiliza el conjunto de preguntas que son extractivas.
Tamaño de la descarga :
578.25 KiB
Tamaño del conjunto de datos :
5.41 MiB
Almacenamiento automático en caché ( documentación ): Sí
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 1,503 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{dua-etal-2019-drop,
title = "{DROP}: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs",
author = "Dua, Dheeru and
Wang, Yizhong and
Dasigi, Pradeep and
Stanovsky, Gabriel and
Singh, Sameer and
Gardner, Matt",
booktitle = "Proceedings of the 2019 Conference of the North {A}merican Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers)",
month = jun,
year = "2019",
address = "Minneapolis, Minnesota",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/N19-1246",
doi = "10.18653/v1/N19-1246",
pages = "2368--2378",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/duo_rc
Descripción de la configuración : se utiliza la división ParaphraseRC del conjunto de datos DuoRC. En este escenario, se recopilan dos resúmenes de la trama diferentes de la misma película, uno de Wikipedia y el otro de IMDb. Dos conjuntos diferentes de trabajadores colaborativos hacen y responden preguntas sobre la trama de la película, donde los "interrogadores" se muestran solo en la página de Wikipedia y los "respondedores" solo se muestran en la página de IMDb. Las preguntas marcadas como sin respuesta se descartan.
Tamaño de descarga :
1.14 MiB
Tamaño del conjunto de datos :
15.04 MiB
Almacenamiento automático en caché ( documentación ): Sí
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 1,501 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{saha-etal-2018-duorc,
title = "{D}uo{RC}: Towards Complex Language Understanding with Paraphrased Reading Comprehension",
author = "Saha, Amrita and
Aralikatte, Rahul and
Khapra, Mitesh M. and
Sankaranarayanan, Karthik",
booktitle = "Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2018",
address = "Melbourne, Australia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/P18-1156",
doi = "10.18653/v1/P18-1156",
pages = "1683--1693",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/carrera
Descripción de la configuración : el conjunto de datos de comprensión de lectura de los exámenes (RACE) se recopila de los exámenes de comprensión de lectura en inglés para estudiantes chinos de secundaria y preparatoria. Se usa la división de la escuela secundaria (que es más desafiante) y también se filtran las preguntas implícitas de estilo "completar el espacio en blanco" (que no son naturales para esta tarea).
Tamaño de la descarga :
1.49 MiB
Tamaño del conjunto de datos :
3.53 MiB
Almacenamiento automático en caché ( documentación ): Sí
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 674 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{lai-etal-2017-race,
title = "{RACE}: Large-scale {R}e{A}ding Comprehension Dataset From Examinations",
author = "Lai, Guokun and
Xie, Qizhe and
Liu, Hanxiao and
Yang, Yiming and
Hovy, Eduard",
booktitle = "Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing",
month = sep,
year = "2017",
address = "Copenhagen, Denmark",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D17-1082",
doi = "10.18653/v1/D17-1082",
pages = "785--794",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/relación_extracción
Descripción de la configuración : dado un conjunto de datos que llena espacios, las relaciones entre las entidades se transforman sistemáticamente en pares de preguntas y respuestas utilizando plantillas. Por ejemplo, la relación educado_en(x, y) entre dos entidades x e y que aparecen en una oración se puede expresar como "¿Dónde se educó x?" con respuesta y. Se recopilan múltiples plantillas para cada tipo de relación. Se utiliza la división de punto de referencia zeroshot del conjunto de datos (generalización a relaciones no vistas) y solo se conservan los ejemplos positivos.
Tamaño de la descarga :
830.88 KiB
Tamaño del conjunto de datos :
3.71 MiB
Almacenamiento automático en caché ( documentación ): Sí
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 2,948 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{levy-etal-2017-zero,
title = "Zero-Shot Relation Extraction via Reading Comprehension",
author = "Levy, Omer and
Seo, Minjoon and
Choi, Eunsol and
Zettlemoyer, Luke",
booktitle = "Proceedings of the 21st Conference on Computational Natural Language Learning ({C}o{NLL} 2017)",
month = aug,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/K17-1034",
doi = "10.18653/v1/K17-1034",
pages = "333--342",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/textbook_qa
Descripción de la configuración : TextbookQA se recopila de las lecciones de los libros de texto de ciencias de la vida, ciencias de la tierra y ciencias físicas de la escuela secundaria. No se incluyen las preguntas que van acompañadas de un diagrama o que son preguntas de "Verdadero o Falso".
Tamaño de la descarga :
1.79 MiB
Tamaño del conjunto de datos :
14.04 MiB
Almacenamiento automático en caché ( documentación ): Sí
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 1,503 |
- Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{kembhavi2017you,
title={Are you smarter than a sixth grader? textbook question answering for multimodal machine comprehension},
author={Kembhavi, Aniruddha and Seo, Minjoon and Schwenk, Dustin and Choi, Jonghyun and Farhadi, Ali and Hajishirzi, Hannaneh},
booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern recognition},
pages={4999--5007},
year={2017}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."