일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- 자연어처리 논문 리뷰
- Zero-shot transfer learning with synthesized data for multi-domain dialogue state tracking
- Leveraging Slot Descriptions for Zero-Shot Cross-Domain Dialogue State Tracking
- 딥러닝기초
- 파이썬을 파이썬답게
- 정보처리기사전공자합격후기
- 정보처리기사 수제비
- 검색엔진
- 정보처리기사 책 추천
- 다이나믹 프로그래밍
- til
- nlp논문리뷰
- Few Shot Dialogue State Tracking using Meta-learning
- MySQL
- 2020정보처리기사필기
- 모두의딥러닝
- From Machine Reading Comprehension to Dialogue State Tracking: Bridging the Gap
- 데이터 합성
- 백준
- DST fewshot learning
- Python
- fasttext text classification 한글
- DST zeroshot learning
- classification text
- 프로그래머스
- How Much Knowledge Can You Pack Into the Parameters of a Language Model?
- few shot dst
- 정보처리기사전공자
- dialogue state tracking
- SUMBT:Slot-Utterance Matching for Universal and Scalable Belief Tracking
- Today
- Total
🌲자라나는청년
[NLP논문리뷰]From Machine Reading Comprehension to Dialogue State Tracking: Bridging the Gap 본문
[NLP논문리뷰]From Machine Reading Comprehension to Dialogue State Tracking: Bridging the Gap
JihyunLee 2021. 8. 27. 11:24제목 : From Machine Reading Comprehension to Dialogue State Tracking: Bridging the Gap
저자 : Shuyang Gao, Sanchit Agarwal, Tagyoung Chung, Di Jin, Dilek Hakkani-Tur
발행년도 : 2020
paper : https://arxiv.org/abs/2004.05827
code : x
Review
Dialogue state tracking(DST)는 task oriented dialogue system의 중요한 부분이지만, 데이터가 부족한것은 accurate하고 robust한 시스템을 만드는데 큰 장애물로 작용한다. 이 논문은 데이터 부족의 문제를 RC(Reading Comprehesion)의 데이터와 모델을 이용하여 DST문제를 푸는 방법을 제안한 논문이다.
RC모델은 두가지를 사용했다. 먼저 extractive 한 DST문제는 span-based RC를 사용했다.
위 그림을 보면 restaurant.semi.food 에 대해서 what type of food does the user want to eat? 이라는 질문을 만든 뒤, 이에 대한 답을 위 dialugue에서 찾는 형태로 RC문제를 풀고 있다.
Categorical 한 변수에 대해서는 다지선다형 문제를 모델을 사용하였다.
정답라벨 외에도, not mentioned, don't care를 추가해서, 이에 대한 답도 찾을 수 있도록 하였다.
Trainning
두 단계의 trainning을 거쳤다. 먼저 RC데이터로 model을 coarse(거칠게)-tune 한 뒤에 multi-woz 데이터로 fine tunning하였다.
Result and Analyses
- 전체 데이터에
맨 아래 STARC가 여기 논문에서 만든 모델인데, 전체 데이터에 대한 성능은 현재 State of the art인 DS-DST와 크게 차이가 나지 않는다고 한다.
- Few shot learning
few shot learning에서는 STARC의 장점이 뚜렷하게 나타났다. 대부분의 상황에서 가장 좋은 점수를 기록하였다.
- Zero shot learning
RC 데이터와 모델이 DST에 얼마나 도움이 되는지 알아보기 위해 Zero shot test를 진행하였다. multi woz 데이터를 한번도 보지 않은 상태임에도 50% 이상의 좋은 성능을 보였다. 이는 Reading Comprehension데이터와 모델이 DST에 충분히 도움이 된다는 것을 의미한다.
아쉬운점
그래도 ontology가 필요하다. multi class 문제에서 정답지(?)를 만들려면 미리 어떤 값이 나오게 될지 다 알고 있어야한다는 문제가 있다.