OU Portal
Log In
Welcome
Applicants
Z6_60GI02O0O8IDC0QEJUJ26TJDI4
Error:
Javascript is disabled in this browser. This page requires Javascript. Modify your browser's settings to allow Javascript to execute. See your browser's documentation for specific instructions.
{}
Zavřít
Publikační činnost
Probíhá načítání, čekejte prosím...
publicationId :
tempRecordId :
actionDispatchIndex :
navigationBranch :
pageMode :
tabSelected :
isRivValid :
Typ záznamu:
stať ve sborníku (D)
Domácí pracoviště:
Ústav pro výzkum a aplikace fuzzy modelování (94410)
Název:
Can You Tell Me How to Get Past Sesame Street? Sentence-Level Pretraining Beyond Language Modeling
Citace
Hůla, J., Wang, A., Xia, P., Pappagari, R., McCoy, T., Patel, R., Kim, N., Tenney, I., Huang, Y., Yu, K., Jin, S., Chen, B., Van Durme, B., Grave, E., Pavlick, E. a Bowman, S. Can You Tell Me How to Get Past Sesame Street? Sentence-Level Pretraining Beyond Language Modeling.
In:
Proceedings of the 57th Conference of the Association for Computational Linguistics 2019-07-28 Florence.
Florence: Association for Computational Linguistics 2019, 2019. s. 4465-4476. ISBN 978-1-950737-48-2.
Podnázev
Rok vydání:
2019
Obor:
Počet stran:
12
Strana od:
4465
Strana do:
4476
Forma vydání:
Tištená verze
Kód ISBN:
978-1-950737-48-2
Kód ISSN:
Název sborníku:
Proceedings of the 57th Conference of the Association for Computational Linguistics
Sborník:
Mezinárodní
Název nakladatele:
Association for Computational Linguistics 2019
Místo vydání:
Florence
Stát vydání:
Název konference:
Místo konání konference:
Florence
Datum zahájení konference:
Typ akce podle státní
příslušnosti účastníků akce:
Celosvětová akce
Kód UT WoS:
000493046106098
EID:
Klíčová slova anglicky:
Deep Learning, NLP
Popis v původním jazyce:
Natural language understanding has recently seen a surge of progress with the use of sentence encoders like ELMo (Peters et al., 2018a) and BERT (Devlin et al., 2019) which are pretrained on variants of language modeling. We conduct the first large-scale systematic study of candidate pretraining tasks, comparing 19 different tasks both as alternatives and complements to language modeling. Our primary results support the use language modeling, especially when combined with pretraining on additional labeled-data tasks. However, our results are mixed across pretraining tasks and show some concerning trends: In ELMo's pretrain-then-freeze paradigm, random baselines are worryingly strong and results vary strikingly across target tasks. In addition, fine-tuning BERT on an intermediate task often negatively impacts downstream transfer. In a more positive trend, we see modest gains from multitask training, suggesting the development of more sophisticated multitask and transfer learning techniques as an avenue for further research.
Popis v anglickém jazyce:
Seznam ohlasů
Ohlas
R01:
RIV/61988987:17610/19:A20020EU
Complementary Content
Deferred Modules
${title}
${badge}
${loading}
Deferred Modules