- Descrizione :
L'attività condivisa MRQA 2019 si concentra sulla generalizzazione nella risposta alle domande. Un sistema di risposta alle domande efficace dovrebbe fare di più che limitarsi a interpolare dal set di addestramento per rispondere a esempi di test tratti dalla stessa distribuzione: dovrebbe anche essere in grado di estrapolare esempi fuori distribuzione: una sfida significativamente più difficile.
MRQA adatta e unifica più set di dati di risposta a domande distinti (sottoinsiemi accuratamente selezionati di set di dati esistenti) nello stesso formato (formato SQuAD). Tra questi, sei set di dati sono stati resi disponibili per la formazione e sei set di dati sono stati resi disponibili per i test. Piccole porzioni dei set di dati di addestramento sono state conservate come dati interni che possono essere utilizzati per lo sviluppo. I set di dati di test contengono solo dati esterni al dominio. Questo benchmark viene rilasciato come parte dell'attività condivisa MRQA 2019.
Ulteriori informazioni sono disponibili all'indirizzo: <a href="https://mrqa.github.io/2019/shared.html">https://mrqa.github.io/2019/shared.html</a>
.
Documentazione aggiuntiva : Esplora documenti con codice
Pagina iniziale : https://mrqa.github.io/2019/shared.html
Codice sorgente :
tfds.text.mrqa.MRQA
Versioni :
-
1.0.0
(impostazione predefinita): versione iniziale.
-
Struttura delle caratteristiche :
FeaturesDict({
'answers': Sequence(string),
'context': string,
'context_tokens': Sequence({
'offsets': int32,
'tokens': string,
}),
'detected_answers': Sequence({
'char_spans': Sequence({
'end': int32,
'start': int32,
}),
'text': string,
'token_spans': Sequence({
'end': int32,
'start': int32,
}),
}),
'qid': string,
'question': string,
'question_tokens': Sequence({
'offsets': int32,
'tokens': string,
}),
'subset': string,
})
- Documentazione delle funzionalità :
Caratteristica | Classe | Forma | Tipo D | Descrizione |
---|---|---|---|---|
CaratteristicheDict | ||||
risposte | Sequenza (tensore) | (Nessuno,) | corda | |
contesto | Tensore | corda | ||
context_token | Sequenza | |||
context_tokens/offset | Tensore | int32 | ||
context_token/token | Tensore | corda | ||
risposte_rilevate | Sequenza | |||
risposte_rilevate/char_spans | Sequenza | |||
risposte_rilevate/char_spans/end | Tensore | int32 | ||
detect_answers/char_spans/start | Tensore | int32 | ||
risposte_rilevate/testo | Tensore | corda | ||
risposte_rilevate/token_spans | Sequenza | |||
risposte_rilevate/token_spans/fine | Tensore | int32 | ||
risposte_rilevate/token_spans/start | Tensore | int32 | ||
qid | Tensore | corda | ||
domanda | Tensore | corda | ||
question_tokens | Sequenza | |||
question_tokens/offset | Tensore | int32 | ||
token_domanda/token | Tensore | corda | ||
sottoinsieme | Tensore | corda |
Chiavi supervisionate (Vedi
as_supervised
doc ):None
Figura ( tfds.show_examples ): non supportato.
mrqa/squad (configurazione predefinita)
Descrizione della configurazione : il set di dati SQuAD (Stanford Question Answering Dataset) viene utilizzato come base per il formato dell'attività condivisa. Ai crowdworker vengono mostrati paragrafi da Wikipedia e viene chiesto di scrivere domande con risposte estrattive.
Dimensione del download :
29.66 MiB
Dimensione del set di dati:
271.43 MiB
Cache automatica ( documentazione ): No
Divisioni :
Diviso | Esempi |
---|---|
'train' | 86.588 |
'validation' | 10.507 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{rajpurkar-etal-2016-squad,
title = "{SQ}u{AD}: 100,000+ Questions for Machine Comprehension of Text",
author = "Rajpurkar, Pranav and
Zhang, Jian and
Lopyrev, Konstantin and
Liang, Percy",
booktitle = "Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing",
month = nov,
year = "2016",
address = "Austin, Texas",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D16-1264",
doi = "10.18653/v1/D16-1264",
pages = "2383--2392",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/notizie_qa
Descrizione della configurazione : due gruppi di crowdworker chiedono e rispondono a domande basate su articoli di notizie della CNN. Gli "intervistatori" vedono solo il titolo e il riepilogo dell'articolo mentre gli "intervistatori" vedono l'articolo completo. Le domande che non hanno risposta o che sono contrassegnate nel set di dati come prive del consenso dell'annotatore vengono scartate.
Dimensione del download :
56.83 MiB
Dimensione del set di dati:
654.25 MiB
Cache automatica ( documentazione ): No
Divisioni :
Diviso | Esempi |
---|---|
'train' | 74.160 |
'validation' | 4.212 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{trischler-etal-2017-newsqa,
title = "{N}ews{QA}: A Machine Comprehension Dataset",
author = "Trischler, Adam and
Wang, Tong and
Yuan, Xingdi and
Harris, Justin and
Sordoni, Alessandro and
Bachman, Philip and
Suleman, Kaheer",
booktitle = "Proceedings of the 2nd Workshop on Representation Learning for {NLP}",
month = aug,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/W17-2623",
doi = "10.18653/v1/W17-2623",
pages = "191--200",
}
#
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/trivia_qa
Descrizione della configurazione : le coppie di domande e risposte provengono da siti Web di trivia e quiz-league. Viene utilizzata la versione web di TriviaQA, in cui i contesti vengono recuperati dai risultati di una query di ricerca di Bing.
Dimensione del download :
383.14 MiB
Dimensione del set di dati:
772.75 MiB
Cache automatica ( documentazione ): No
Divisioni :
Diviso | Esempi |
---|---|
'train' | 61.688 |
'validation' | 7.785 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{joshi-etal-2017-triviaqa,
title = "{T}rivia{QA}: A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension",
author = "Joshi, Mandar and
Choi, Eunsol and
Weld, Daniel and
Zettlemoyer, Luke",
booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/P17-1147",
doi = "10.18653/v1/P17-1147",
pages = "1601--1611",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/ricerca_qa
Descrizione della configurazione : le coppie di domande e risposte provengono da Jeopardy! Programma televisivo. I contesti sono composti da frammenti recuperati da una query di ricerca di Google.
Dimensione del download :
699.86 MiB
Dimensione del set di dati:
1.38 GiB
Cache automatica ( documentazione ): No
Divisioni :
Diviso | Esempi |
---|---|
'train' | 117.384 |
'validation' | 16.980 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@article{dunn2017searchqa,
title={Searchqa: A new q\&a dataset augmented with context from a search engine},
author={Dunn, Matthew and Sagun, Levent and Higgins, Mike and Guney, V Ugur and Cirik, Volkan and Cho, Kyunghyun},
journal={arXiv preprint arXiv:1704.05179},
year={2017}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/hotpot_qa
Descrizione della configurazione : ai crowdworker vengono mostrati due paragrafi collegati a entità da Wikipedia e viene chiesto di scrivere e rispondere a domande che richiedono un ragionamento multi-hop per essere risolte. Nell'ambientazione originale, questi paragrafi sono mescolati con ulteriori paragrafi distrattori per rendere più difficile l'inferenza. Qui, i paragrafi del distrattore non sono inclusi.
Dimensioni del download :
111.98 MiB
Dimensione del set di dati:
272.87 MiB
Cache automatica ( documentazione ): No
Divisioni :
Diviso | Esempi |
---|---|
'train' | 72.928 |
'validation' | 5.901 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{yang-etal-2018-hotpotqa,
title = "{H}otpot{QA}: A Dataset for Diverse, Explainable Multi-hop Question Answering",
author = "Yang, Zhilin and
Qi, Peng and
Zhang, Saizheng and
Bengio, Yoshua and
Cohen, William and
Salakhutdinov, Ruslan and
Manning, Christopher D.",
booktitle = "Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing",
month = oct # "-" # nov,
year = "2018",
address = "Brussels, Belgium",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D18-1259",
doi = "10.18653/v1/D18-1259",
pages = "2369--2380",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/natural_questions
Descrizione della configurazione : le domande vengono raccolte dalle query di ricerca di informazioni al motore di ricerca Google da parte di utenti reali in condizioni naturali. Le risposte alle domande sono annotate in una pagina di Wikipedia recuperata dai crowdworker. Vengono raccolti due tipi di annotazioni: 1) il riquadro di delimitazione HTML contenente informazioni sufficienti per dedurre completamente la risposta alla domanda (risposta lunga) e 2) il sottointervallo o i sottocampi all'interno del riquadro di delimitazione che comprendono la risposta effettiva (risposta breve ). Vengono utilizzati solo gli esempi con risposte brevi e la risposta lunga viene utilizzata come contesto.
Dimensione del download :
121.15 MiB
Dimensione del set di dati:
339.03 MiB
Cache automatica ( documentazione ): No
Divisioni :
Diviso | Esempi |
---|---|
'train' | 104.071 |
'validation' | 12.836 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@article{kwiatkowski-etal-2019-natural,
title = "Natural Questions: A Benchmark for Question Answering Research",
author = "Kwiatkowski, Tom and
Palomaki, Jennimaria and
Redfield, Olivia and
Collins, Michael and
Parikh, Ankur and
Alberti, Chris and
Epstein, Danielle and
Polosukhin, Illia and
Devlin, Jacob and
Lee, Kenton and
Toutanova, Kristina and
Jones, Llion and
Kelcey, Matthew and
Chang, Ming-Wei and
Dai, Andrew M. and
Uszkoreit, Jakob and
Le, Quoc and
Petrov, Slav",
journal = "Transactions of the Association for Computational Linguistics",
volume = "7",
year = "2019",
address = "Cambridge, MA",
publisher = "MIT Press",
url = "https://aclanthology.org/Q19-1026",
doi = "10.1162/tacl_a_00276",
pages = "452--466",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/bio_asq
Descrizione della configurazione : BioASQ, una sfida sull'indicizzazione semantica biomedica su larga scala e sulla risposta alle domande, contiene coppie di domande e risposte create da esperti di dominio. Vengono quindi collegati manualmente a più articoli scientifici correlati (PubMed). L'abstract completo di ciascuno degli articoli collegati viene scaricato e utilizzato come contesti individuali (ad esempio, una singola domanda può essere collegata a più articoli indipendenti per creare più coppie QA-contesto). Gli abstract che non contengono esattamente la risposta vengono scartati.
Dimensioni del download :
2.54 MiB
Dimensione del set di dati :
6.70 MiB
Auto-cache ( documentazione ): Sì
Divisioni :
Diviso | Esempi |
---|---|
'test' | 1.504 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@article{tsatsaronis2015overview,
title={An overview of the BIOASQ large-scale biomedical semantic indexing and question answering competition},
author={Tsatsaronis, George and Balikas, Georgios and Malakasiotis, Prodromos and Partalas, Ioannis and Zschunke, Matthias and Alvers, Michael R and Weissenborn, Dirk and Krithara, Anastasia and Petridis, Sergios and Polychronopoulos, Dimitris and others},
journal={BMC bioinformatics},
volume={16},
number={1},
pages={1--28},
year={2015},
publisher={Springer}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/goccia
Descrizione della configurazione : gli esempi DROP (Discrete Reasoning Over the content of Paragraphs) sono stati raccolti in modo simile a SQuAD, in cui ai crowdworker viene chiesto di creare coppie domanda-risposta dai paragrafi di Wikipedia. Le domande si concentrano sul ragionamento quantitativo e il set di dati originale contiene risposte numeriche non estrattive e risposte testuali estrattive. Viene utilizzato l'insieme di domande estrattive.
Dimensione del download :
578.25 KiB
Dimensione del set di dati:
5.41 MiB
Auto-cache ( documentazione ): Sì
Divisioni :
Diviso | Esempi |
---|---|
'test' | 1.503 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{dua-etal-2019-drop,
title = "{DROP}: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs",
author = "Dua, Dheeru and
Wang, Yizhong and
Dasigi, Pradeep and
Stanovsky, Gabriel and
Singh, Sameer and
Gardner, Matt",
booktitle = "Proceedings of the 2019 Conference of the North {A}merican Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers)",
month = jun,
year = "2019",
address = "Minneapolis, Minnesota",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/N19-1246",
doi = "10.18653/v1/N19-1246",
pages = "2368--2378",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/duo_rc
Descrizione della configurazione : viene utilizzata la suddivisione ParaphraseRC del set di dati DuoRC. In questa ambientazione vengono raccolti due diversi riassunti della trama dello stesso film, uno da Wikipedia e l'altro da IMDb. Due diversi gruppi di crowdworker chiedono e rispondono a domande sulla trama del film, in cui agli "intervistatori" viene mostrata solo la pagina di Wikipedia e agli "intervistatori" solo la pagina di IMDb. Le domande contrassegnate come senza risposta vengono scartate.
Dimensione del download :
1.14 MiB
Dimensione del set di dati:
15.04 MiB
Auto-cache ( documentazione ): Sì
Divisioni :
Diviso | Esempi |
---|---|
'test' | 1.501 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{saha-etal-2018-duorc,
title = "{D}uo{RC}: Towards Complex Language Understanding with Paraphrased Reading Comprehension",
author = "Saha, Amrita and
Aralikatte, Rahul and
Khapra, Mitesh M. and
Sankaranarayanan, Karthik",
booktitle = "Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2018",
address = "Melbourne, Australia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/P18-1156",
doi = "10.18653/v1/P18-1156",
pages = "1683--1693",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/razza
Descrizione della configurazione : il set di dati di comprensione della lettura dagli esami (RACE) viene raccolto dagli esami di comprensione della lettura in inglese per studenti cinesi delle scuole medie e superiori. Viene utilizzata la divisione del liceo (che è più impegnativa) e vengono filtrate anche le domande implicite in stile "riempi gli spazi vuoti" (che sono innaturali per questo compito).
Dimensione del download :
1.49 MiB
Dimensione del set di dati:
3.53 MiB
Auto-cache ( documentazione ): Sì
Divisioni :
Diviso | Esempi |
---|---|
'test' | 674 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{lai-etal-2017-race,
title = "{RACE}: Large-scale {R}e{A}ding Comprehension Dataset From Examinations",
author = "Lai, Guokun and
Xie, Qizhe and
Liu, Hanxiao and
Yang, Yiming and
Hovy, Eduard",
booktitle = "Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing",
month = sep,
year = "2017",
address = "Copenhagen, Denmark",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D17-1082",
doi = "10.18653/v1/D17-1082",
pages = "785--794",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/relation_extraction
Descrizione della configurazione : dato un set di dati che riempie gli slot, le relazioni tra le entità vengono sistematicamente trasformate in coppie di domande e risposte utilizzando modelli. Ad esempio, la relazione educationed_at(x, y) tra due entità x e y che compaiono in una frase può essere espressa come "Dove ha studiato x?" con risposta y. Vengono raccolti più modelli per ogni tipo di relazione. Viene utilizzata la suddivisione del benchmark zeroshot del set di dati (generalizzazione a relazioni invisibili) e vengono mantenuti solo gli esempi positivi.
Dimensione del download :
830.88 KiB
Dimensione del set di dati:
3.71 MiB
Auto-cache ( documentazione ): Sì
Divisioni :
Diviso | Esempi |
---|---|
'test' | 2.948 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{levy-etal-2017-zero,
title = "Zero-Shot Relation Extraction via Reading Comprehension",
author = "Levy, Omer and
Seo, Minjoon and
Choi, Eunsol and
Zettlemoyer, Luke",
booktitle = "Proceedings of the 21st Conference on Computational Natural Language Learning ({C}o{NLL} 2017)",
month = aug,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/K17-1034",
doi = "10.18653/v1/K17-1034",
pages = "333--342",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/libro di testo_qa
Descrizione della configurazione : TextbookQA è raccolto dalle lezioni dei libri di testo di scienze della vita, scienze della terra e scienze fisiche della scuola media. Le domande che sono accompagnate da un diagramma o che sono domande "Vero o Falso" non sono incluse.
Dimensione del download :
1.79 MiB
Dimensione del set di dati:
14.04 MiB
Auto-cache ( documentazione ): Sì
Divisioni :
Diviso | Esempi |
---|---|
'test' | 1.503 |
- Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{kembhavi2017you,
title={Are you smarter than a sixth grader? textbook question answering for multimodal machine comprehension},
author={Kembhavi, Aniruddha and Seo, Minjoon and Schwenk, Dustin and Choi, Jonghyun and Farhadi, Ali and Hajishirzi, Hannaneh},
booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern recognition},
pages={4999--5007},
year={2017}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."