- বর্ণনা :
MRQA 2019 শেয়ার্ড টাস্ক প্রশ্নের উত্তরে সাধারণীকরণের উপর দৃষ্টি নিবদ্ধ করে। একটি কার্যকর প্রশ্নের উত্তর দেওয়ার সিস্টেমের শুধুমাত্র একই বন্টন থেকে নেওয়া পরীক্ষার উদাহরণগুলির উত্তর দেওয়ার জন্য প্রশিক্ষণ সেট থেকে ইন্টারপোলেট করার চেয়ে আরও বেশি কিছু করা উচিত: এটি বিতরণের বাইরের উদাহরণগুলিতে এক্সট্রাপোলেট করতে সক্ষম হওয়া উচিত - একটি উল্লেখযোগ্যভাবে কঠিন চ্যালেঞ্জ।
MRQA একই বিন্যাসে (SQuAD বিন্যাস) একাধিক স্বতন্ত্র প্রশ্নের উত্তরকারী ডেটাসেট (বিদ্যমান ডেটাসেটের সাবধানে নির্বাচিত উপসেট) অভিযোজিত করে এবং একীভূত করে। তাদের মধ্যে, ছয়টি ডেটাসেট প্রশিক্ষণের জন্য উপলব্ধ করা হয়েছিল, এবং ছয়টি ডেটাসেট পরীক্ষার জন্য উপলব্ধ করা হয়েছিল। প্রশিক্ষণ ডেটাসেটের ছোট অংশগুলি ইন-ডোমেন ডেটা হিসাবে রাখা হয়েছিল যা বিকাশের জন্য ব্যবহার করা যেতে পারে। টেস্টিং ডেটাসেটে শুধুমাত্র ডোমেনের বাইরের ডেটা থাকে। এই বেঞ্চমার্কটি MRQA 2019 শেয়ার্ড টাস্কের অংশ হিসাবে প্রকাশ করা হয়েছে।
আরও তথ্য এখানে পাওয়া যাবে: <a href="https://mrqa.github.io/2019/shared.html">https://mrqa.github.io/2019/shared.html</a>
।
সোর্স কোড :
tfds.text.mrqa.MRQA
সংস্করণ :
-
1.0.0
(ডিফল্ট): প্রাথমিক প্রকাশ।
-
বৈশিষ্ট্য গঠন :
FeaturesDict({
'answers': Sequence(string),
'context': string,
'context_tokens': Sequence({
'offsets': int32,
'tokens': string,
}),
'detected_answers': Sequence({
'char_spans': Sequence({
'end': int32,
'start': int32,
}),
'text': string,
'token_spans': Sequence({
'end': int32,
'start': int32,
}),
}),
'qid': string,
'question': string,
'question_tokens': Sequence({
'offsets': int32,
'tokens': string,
}),
'subset': string,
})
- বৈশিষ্ট্য ডকুমেন্টেশন :
বৈশিষ্ট্য | ক্লাস | আকৃতি | ডিটাইপ | বর্ণনা |
---|---|---|---|---|
ফিচারসডিক্ট | ||||
উত্তর | ক্রম (টেনসর) | (কোনটিই নয়,) | স্ট্রিং | |
প্রসঙ্গ | টেনসর | স্ট্রিং | ||
প্রসঙ্গ_টোকেন | ক্রম | |||
প্রসঙ্গ_টোকেন/অফসেট | টেনসর | int32 | ||
প্রসঙ্গ_টোকেন/টোকেন | টেনসর | স্ট্রিং | ||
সনাক্ত করা_উত্তর | ক্রম | |||
সনাক্ত করা_উত্তর/চার_স্প্যান | ক্রম | |||
সনাক্ত করা_উত্তর/char_spans/end | টেনসর | int32 | ||
সনাক্ত করা_উত্তর/char_spans/start | টেনসর | int32 | ||
সনাক্ত করা_উত্তর/পাঠ্য | টেনসর | স্ট্রিং | ||
সনাক্ত করা_উত্তর/টোকেন_স্প্যান | ক্রম | |||
সনাক্ত_উত্তর/টোকেন_স্প্যান/শেষ | টেনসর | int32 | ||
সনাক্ত_উত্তর/টোকেন_স্প্যান/শুরু | টেনসর | int32 | ||
qid | টেনসর | স্ট্রিং | ||
প্রশ্ন | টেনসর | স্ট্রিং | ||
প্রশ্ন_টোকেন | ক্রম | |||
প্রশ্ন_টোকেন/অফসেট | টেনসর | int32 | ||
প্রশ্ন_টোকেন/টোকেন | টেনসর | স্ট্রিং | ||
উপসেট | টেনসর | স্ট্রিং |
তত্ত্বাবধান করা কী (দেখুন
as_supervised
doc ):None
চিত্র ( tfds.show_examples ): সমর্থিত নয়।
mrqa/squad (ডিফল্ট কনফিগারেশন)
কনফিগার বিবরণ : SQuAD (স্ট্যানফোর্ড প্রশ্ন উত্তর ডেটাসেট) ডেটাসেট ভাগ করা টাস্ক ফরম্যাটের ভিত্তি হিসাবে ব্যবহৃত হয়। ক্রাউডওয়ার্কারদের উইকিপিডিয়া থেকে অনুচ্ছেদ দেখানো হয় এবং উত্তোলনমূলক উত্তর সহ প্রশ্ন লিখতে বলা হয়।
ডাউনলোডের আকার :
29.66 MiB
ডেটাসেটের আকার :
271.43 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | ৮৬,৫৮৮ |
'validation' | 10,507 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{rajpurkar-etal-2016-squad,
title = "{SQ}u{AD}: 100,000+ Questions for Machine Comprehension of Text",
author = "Rajpurkar, Pranav and
Zhang, Jian and
Lopyrev, Konstantin and
Liang, Percy",
booktitle = "Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing",
month = nov,
year = "2016",
address = "Austin, Texas",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D16-1264",
doi = "10.18653/v1/D16-1264",
pages = "2383--2392",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/news_qa
কনফিগারেশনের বিবরণ : CNN সংবাদ নিবন্ধের উপর ভিত্তি করে দুই সেট ভিড় কর্মীরা প্রশ্ন জিজ্ঞাসা করে এবং উত্তর দেয়। "প্রশ্নকারীরা" শুধুমাত্র নিবন্ধের শিরোনাম এবং সারাংশ দেখেন যখন "উত্তরদাতারা" সম্পূর্ণ নিবন্ধটি দেখেন। যে প্রশ্নগুলির কোন উত্তর নেই বা ডেটাসেটে পতাকাঙ্কিত করা হয়েছে টীকা চুক্তি ছাড়াই সেগুলি বাতিল করা হয়৷
ডাউনলোড সাইজ :
56.83 MiB
ডেটাসেটের আকার :
654.25 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 74,160 |
'validation' | 4,212 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{trischler-etal-2017-newsqa,
title = "{N}ews{QA}: A Machine Comprehension Dataset",
author = "Trischler, Adam and
Wang, Tong and
Yuan, Xingdi and
Harris, Justin and
Sordoni, Alessandro and
Bachman, Philip and
Suleman, Kaheer",
booktitle = "Proceedings of the 2nd Workshop on Representation Learning for {NLP}",
month = aug,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/W17-2623",
doi = "10.18653/v1/W17-2623",
pages = "191--200",
}
#
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/trivia_qa
কনফিগারেশনের বিবরণ : প্রশ্ন ও উত্তর জোড়া ট্রিভিয়া এবং কুইজ-লীগ ওয়েবসাইট থেকে নেওয়া হয়েছে। TriviaQA এর ওয়েব সংস্করণ, যেখানে প্রসঙ্গগুলি একটি Bing অনুসন্ধান প্রশ্নের ফলাফল থেকে পুনরুদ্ধার করা হয়, ব্যবহার করা হয়।
ডাউনলোড সাইজ :
383.14 MiB
ডেটাসেটের আকার :
772.75 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 61,688 |
'validation' | ৭,৭৮৫ |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{joshi-etal-2017-triviaqa,
title = "{T}rivia{QA}: A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension",
author = "Joshi, Mandar and
Choi, Eunsol and
Weld, Daniel and
Zettlemoyer, Luke",
booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/P17-1147",
doi = "10.18653/v1/P17-1147",
pages = "1601--1611",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/search_qa
কনফিগারেশনের বিবরণ : প্রশ্ন এবং উত্তর জোড়া বিপদ থেকে উৎসারিত হয়! টিভি শো. প্রসঙ্গগুলি একটি Google অনুসন্ধান ক্যোয়ারী থেকে পুনরুদ্ধার করা স্নিপেটগুলির সমন্বয়ে গঠিত।
ডাউনলোডের আকার :
699.86 MiB
ডেটাসেটের আকার :
1.38 GiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 117,384 |
'validation' | 16,980 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@article{dunn2017searchqa,
title={Searchqa: A new q\&a dataset augmented with context from a search engine},
author={Dunn, Matthew and Sagun, Levent and Higgins, Mike and Guney, V Ugur and Cirik, Volkan and Cho, Kyunghyun},
journal={arXiv preprint arXiv:1704.05179},
year={2017}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/hotpot_qa
কনফিগারেশনের বিবরণ : ভিড়ওয়ার্কারদের উইকিপিডিয়া থেকে দুটি সত্তা-সংযুক্ত অনুচ্ছেদ দেখানো হয় এবং তাদের এমন প্রশ্ন লিখতে এবং উত্তর দিতে বলা হয় যার সমাধানের জন্য বহু-হপ যুক্তির প্রয়োজন হয়। মূল সেটিংয়ে, অনুমানকে আরও কঠিন করার জন্য এই অনুচ্ছেদগুলিকে অতিরিক্ত বিভ্রান্তিকর অনুচ্ছেদের সাথে মিশ্রিত করা হয়। এখানে, বিক্ষিপ্ত অনুচ্ছেদ অন্তর্ভুক্ত করা হয় না.
ডাউনলোড সাইজ :
111.98 MiB
ডেটাসেটের আকার :
272.87 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 72,928 |
'validation' | 5,901 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{yang-etal-2018-hotpotqa,
title = "{H}otpot{QA}: A Dataset for Diverse, Explainable Multi-hop Question Answering",
author = "Yang, Zhilin and
Qi, Peng and
Zhang, Saizheng and
Bengio, Yoshua and
Cohen, William and
Salakhutdinov, Ruslan and
Manning, Christopher D.",
booktitle = "Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing",
month = oct # "-" # nov,
year = "2018",
address = "Brussels, Belgium",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D18-1259",
doi = "10.18653/v1/D18-1259",
pages = "2369--2380",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/প্রাকৃতিক_প্রশ্ন
কনফিগারেশনের বিবরণ : প্রাকৃতিক পরিস্থিতিতে প্রকৃত ব্যবহারকারীদের দ্বারা Google সার্চ ইঞ্জিনে তথ্য-সন্ধানী প্রশ্ন থেকে প্রশ্ন সংগ্রহ করা হয়। প্রশ্নের উত্তর ভিকিপিডিয়ার একটি পুনরুদ্ধার পৃষ্ঠায় ভিড় কর্মীর দ্বারা টীকা করা হয়েছে। দুই ধরনের টীকা সংগ্রহ করা হয়: 1) এইচটিএমএল বাউন্ডিং বাক্সে যথেষ্ট তথ্য রয়েছে যাতে প্রশ্নের উত্তর সম্পূর্ণরূপে অনুমান করা যায় (দীর্ঘ উত্তর), এবং 2) বাউন্ডিং বক্সের মধ্যে সাবস্প্যান বা সাব-স্প্যান যা প্রকৃত উত্তর (সংক্ষিপ্ত উত্তর) অন্তর্ভুক্ত করে ) শুধুমাত্র সংক্ষিপ্ত উত্তর আছে যে উদাহরণ ব্যবহার করা হয়, এবং দীর্ঘ উত্তর প্রসঙ্গ হিসাবে ব্যবহার করা হয়.
ডাউনলোড সাইজ :
121.15 MiB
ডেটাসেটের আকার :
339.03 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'train' | 104,071 |
'validation' | 12,836 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@article{kwiatkowski-etal-2019-natural,
title = "Natural Questions: A Benchmark for Question Answering Research",
author = "Kwiatkowski, Tom and
Palomaki, Jennimaria and
Redfield, Olivia and
Collins, Michael and
Parikh, Ankur and
Alberti, Chris and
Epstein, Danielle and
Polosukhin, Illia and
Devlin, Jacob and
Lee, Kenton and
Toutanova, Kristina and
Jones, Llion and
Kelcey, Matthew and
Chang, Ming-Wei and
Dai, Andrew M. and
Uszkoreit, Jakob and
Le, Quoc and
Petrov, Slav",
journal = "Transactions of the Association for Computational Linguistics",
volume = "7",
year = "2019",
address = "Cambridge, MA",
publisher = "MIT Press",
url = "https://aclanthology.org/Q19-1026",
doi = "10.1162/tacl_a_00276",
pages = "452--466",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/bio_asq
কনফিগারেশনের বিবরণ : BioASQ, বড় আকারের বায়োমেডিকাল শব্দার্থিক সূচীকরণ এবং প্রশ্নের উত্তরের একটি চ্যালেঞ্জ, এতে প্রশ্ন এবং উত্তর জোড়া রয়েছে যা ডোমেন বিশেষজ্ঞদের দ্বারা তৈরি করা হয়েছে। সেগুলি ম্যানুয়ালি একাধিক সম্পর্কিত বিজ্ঞান (PubMed) নিবন্ধগুলির সাথে লিঙ্ক করা হয়৷ লিঙ্ক করা প্রতিটি নিবন্ধের সম্পূর্ণ বিমূর্ত ডাউনলোড করা হয় এবং পৃথক প্রসঙ্গ হিসাবে ব্যবহার করা হয় (যেমন, একাধিক QA-প্রসঙ্গ জোড়া তৈরি করতে একটি একক প্রশ্ন একাধিক, স্বাধীন নিবন্ধের সাথে লিঙ্ক করা যেতে পারে)। বিমূর্ত যে উত্তর ধারণ করে না বাতিল করা হয়.
ডাউনলোড সাইজ :
2.54 MiB
ডেটাসেটের আকার :
6.70 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'test' | 1,504 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@article{tsatsaronis2015overview,
title={An overview of the BIOASQ large-scale biomedical semantic indexing and question answering competition},
author={Tsatsaronis, George and Balikas, Georgios and Malakasiotis, Prodromos and Partalas, Ioannis and Zschunke, Matthias and Alvers, Michael R and Weissenborn, Dirk and Krithara, Anastasia and Petridis, Sergios and Polychronopoulos, Dimitris and others},
journal={BMC bioinformatics},
volume={16},
number={1},
pages={1--28},
year={2015},
publisher={Springer}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/ড্রপ
কনফিগারেশনের বিবরণ : ড্রপ (অনুচ্ছেদের বিষয়বস্তুর উপর বিচ্ছিন্ন যুক্তি) উদাহরণগুলি স্কোয়াডের অনুরূপভাবে সংগ্রহ করা হয়েছিল, যেখানে ভিকিপিডিয়ার অনুচ্ছেদগুলি থেকে প্রশ্ন-উত্তর জোড়া তৈরি করতে ভিড় কর্মীদের বলা হয়। প্রশ্নগুলি পরিমাণগত যুক্তির উপর ফোকাস করে, এবং মূল ডেটাসেটে নন-এক্সট্রাক্টিভ সাংখ্যিক উত্তরের পাশাপাশি নিষ্কাশনমূলক পাঠ্য উত্তর রয়েছে। এক্সট্রাক্টিভ প্রশ্নের সেট ব্যবহার করা হয়।
ডাউনলোডের আকার :
578.25 KiB
ডেটাসেটের আকার :
5.41 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'test' | 1,503 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{dua-etal-2019-drop,
title = "{DROP}: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs",
author = "Dua, Dheeru and
Wang, Yizhong and
Dasigi, Pradeep and
Stanovsky, Gabriel and
Singh, Sameer and
Gardner, Matt",
booktitle = "Proceedings of the 2019 Conference of the North {A}merican Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers)",
month = jun,
year = "2019",
address = "Minneapolis, Minnesota",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/N19-1246",
doi = "10.18653/v1/N19-1246",
pages = "2368--2378",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/duo_rc
কনফিগারেশনের বিবরণ : DuoRC ডেটাসেটের ParaphraseRC স্প্লিট ব্যবহার করা হয়। এই সেটিংয়ে, একই মুভির দুটি ভিন্ন প্লটের সারাংশ সংগ্রহ করা হয়েছে- একটি উইকিপিডিয়া থেকে এবং অন্যটি আইএমডিবি থেকে। ভিড় কর্মীর দুটি ভিন্ন সেট মুভির প্লট সম্পর্কে প্রশ্ন জিজ্ঞাসা করে এবং উত্তর দেয়, যেখানে "প্রশ্নকারীদের" শুধুমাত্র উইকিপিডিয়া পৃষ্ঠায় দেখানো হয় এবং "উত্তরদাতাদের" শুধুমাত্র IMDb পৃষ্ঠা দেখানো হয়। যে প্রশ্নগুলি উত্তরযোগ্য হিসাবে চিহ্নিত করা হয়েছে তা বাতিল করা হয়েছে।
ডাউনলোড আকার :
1.14 MiB
ডেটাসেটের আকার :
15.04 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'test' | 1,501 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{saha-etal-2018-duorc,
title = "{D}uo{RC}: Towards Complex Language Understanding with Paraphrased Reading Comprehension",
author = "Saha, Amrita and
Aralikatte, Rahul and
Khapra, Mitesh M. and
Sankaranarayanan, Karthik",
booktitle = "Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2018",
address = "Melbourne, Australia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/P18-1156",
doi = "10.18653/v1/P18-1156",
pages = "1683--1693",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/জাতি
কনফিগারেশনের বিবরণ : রিডিং কম্প্রিহেনশন ডেটাসেট ফ্রম এক্সামিনেশনস (RACE) মিডল এবং হাই স্কুল চাইনিজ ছাত্রদের জন্য ইংরেজি রিডিং কম্প্রিহেনশন পরীক্ষা থেকে সংগ্রহ করা হয়। উচ্চ বিদ্যালয়ের বিভাজন (যা আরও চ্যালেঞ্জিং) ব্যবহার করা হয় এবং অন্তর্নিহিত "খালি পূরণ করুন" শৈলীর প্রশ্নগুলি (যা এই কাজের জন্য অপ্রাকৃত) ফিল্টার করা হয়।
ডাউনলোড আকার :
1.49 MiB
ডেটাসেটের আকার :
3.53 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'test' | 674 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{lai-etal-2017-race,
title = "{RACE}: Large-scale {R}e{A}ding Comprehension Dataset From Examinations",
author = "Lai, Guokun and
Xie, Qizhe and
Liu, Hanxiao and
Yang, Yiming and
Hovy, Eduard",
booktitle = "Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing",
month = sep,
year = "2017",
address = "Copenhagen, Denmark",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D17-1082",
doi = "10.18653/v1/D17-1082",
pages = "785--794",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/relation_extraction
কনফিগারেশনের বিবরণ : একটি স্লট-ফিলিং ডেটাসেট দেওয়া, সত্তার মধ্যে সম্পর্কগুলি নিয়মতান্ত্রিকভাবে টেমপ্লেট ব্যবহার করে প্রশ্নউত্তর জোড়ায় রূপান্তরিত হয়। উদাহরণস্বরূপ, একটি বাক্যে উপস্থিত দুটি সত্তা x এবং y-এর মধ্যে educated_at(x, y) সম্পর্কটিকে "x কোথায় শিক্ষিত ছিল?" হিসাবে প্রকাশ করা যেতে পারে। উত্তর y সহ। প্রতিটি ধরনের সম্পর্কের জন্য একাধিক টেমপ্লেট সংগ্রহ করা হয়। ডেটাসেটের জিরোশট বেঞ্চমার্ক বিভক্ত (অদেখা সম্পর্কের সাধারণীকরণ) ব্যবহার করা হয় এবং শুধুমাত্র ইতিবাচক উদাহরণ রাখা হয়।
ডাউনলোড
830.88 KiB
ডেটাসেটের আকার :
3.71 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'test' | 2,948 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{levy-etal-2017-zero,
title = "Zero-Shot Relation Extraction via Reading Comprehension",
author = "Levy, Omer and
Seo, Minjoon and
Choi, Eunsol and
Zettlemoyer, Luke",
booktitle = "Proceedings of the 21st Conference on Computational Natural Language Learning ({C}o{NLL} 2017)",
month = aug,
year = "2017",
address = "Vancouver, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/K17-1034",
doi = "10.18653/v1/K17-1034",
pages = "333--342",
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."
mrqa/পাঠ্যপুস্তক_qa
কনফিগারেশনের বিবরণ : পাঠ্যপুস্তক কিউএ মিডল স্কুল লাইফ সায়েন্স, আর্থ সায়েন্স এবং ফিজিক্যাল সায়েন্সের পাঠ্যপুস্তক থেকে সংগ্রহ করা হয়েছে। যে প্রশ্নগুলির সাথে একটি ডায়াগ্রাম রয়েছে বা যেগুলি "সত্য বা মিথ্যা" প্রশ্নগুলি অন্তর্ভুক্ত নয়৷
ডাউনলোড সাইজ :
1.79 MiB
ডেটাসেটের আকার :
14.04 MiB
স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ
বিভাজন :
বিভক্ত | উদাহরণ |
---|---|
'test' | 1,503 |
- উদাহরণ ( tfds.as_dataframe ):
- উদ্ধৃতি :
@inproceedings{kembhavi2017you,
title={Are you smarter than a sixth grader? textbook question answering for multimodal machine comprehension},
author={Kembhavi, Aniruddha and Seo, Minjoon and Schwenk, Dustin and Choi, Jonghyun and Farhadi, Ali and Hajishirzi, Hannaneh},
booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern recognition},
pages={4999--5007},
year={2017}
}
@inproceedings{fisch-etal-2019-mrqa,
title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
author = "Fisch, Adam and
Talmor, Alon and
Jia, Robin and
Seo, Minjoon and
Choi, Eunsol and
Chen, Danqi",
booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
month = nov,
year = "2019",
address = "Hong Kong, China",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/D19-5801",
doi = "10.18653/v1/D19-5801",
pages = "1--13",
}
Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."