일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- nlp논문리뷰
- Leveraging Slot Descriptions for Zero-Shot Cross-Domain Dialogue State Tracking
- DST zeroshot learning
- til
- 자연어처리 논문 리뷰
- SUMBT:Slot-Utterance Matching for Universal and Scalable Belief Tracking
- DST fewshot learning
- 정보처리기사 수제비
- How Much Knowledge Can You Pack Into the Parameters of a Language Model?
- few shot dst
- 모두의딥러닝
- 딥러닝기초
- 정보처리기사 책 추천
- Few Shot Dialogue State Tracking using Meta-learning
- MySQL
- 파이썬을 파이썬답게
- 검색엔진
- 정보처리기사전공자
- From Machine Reading Comprehension to Dialogue State Tracking: Bridging the Gap
- 2020정보처리기사필기
- Zero-shot transfer learning with synthesized data for multi-domain dialogue state tracking
- fasttext text classification 한글
- 프로그래머스
- 정보처리기사전공자합격후기
- classification text
- 데이터 합성
- dialogue state tracking
- 백준
- 다이나믹 프로그래밍
- Python
Archives
- Today
- Total
목록How Much Knowledge Can You Pack Into the Parameters of a Language Model? (1)
🌲자라나는청년
[NLP논문리뷰]How Much Knowledge Can You Pack Into the Parameters of a Language Model?
제목 : HowMuchKnowledge Can You Pack Into the Parameters of a Language Model? 저자 : Adam Roberts, Colin Raffel, Noam Shazeer 발행년도 : 2020 paper : https://arxiv.org/abs/2002.08910 code : https://github.com/google-research/google-research/tree/master/t5_closed_book_qa Review QA모델에 대한 논문 중 google에서 출간한 논문. 기존의 QA task는 passage를 보여주고 이에 대한 답을 찾아가는 방식이었다. 그러나 이 논문은 passage를 보여주지 않고 질문 부터 한다. 즉 다양한 task에 ..
논문리뷰
2021. 9. 6. 16:34