메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터

주제분류

정기구독(개인)

소속 기관이 없으신 경우, 개인 정기구독을 하시면 저렴하게
논문을 무제한 열람 이용할 수 있어요.

회원혜택

로그인 회원이 가져갈 수 있는 혜택들을 확인하고 이용하세요.

아카루트

학술연구/단체지원/교육 등 연구자 활동을 지속하도록 DBpia가 지원하고 있어요.

영문교정

영문 논문 작성에 도움을 드리기 위해, 영문 교정 서비스를
지원하고 있어요.

고객센터 제휴문의

Top 10%

...

저널정보

저자정보

표지
이용수
내서재
5
내서재에 추가
되었습니다.
내서재에서
삭제되었습니다.

내서재에 추가
되었습니다.
내서재에서
삭제되었습니다.

초록·키워드

오류제보하기
자연어처리는 최근 인공지능이 각광을 받으며 비약적인 발전을 이루고 있다. 자연어처리의 여러 문제 중 질문-답변은 인공지능이 문단 내에서 질문에 맞는 답을 찾아주는 문제다. 인공지능 문제에서 우수한 성능을 달성하기 위해서는 인공지능 모델과 학습 데이터셋의 확보가 매우 중요하다. 특히 질문-답변 데이터셋은 질문-답변의 문법, 관계 등 인간의 직접적 개입이 많이 요구되어 데이터 구축이 쉽지 않다. 이런 문제점을 해결하기 위해 본 논문에서는 답변 생성, 질문 생성, 필터링의 3 단계로 구성된 질문-답변 데이터 증강 방법을 제안한다. 증강된 데이터를 이용하여 학습시킨 모델의 질의응답 성능이 KorQuAD 데이터만으로 학습시킨 모델에 비해 F1-score 기준 최대 1.13 증가한 결과를 얻을 수 있음을 실험을 통해 보인다.

Natural language processing (NLP) has recently made rapid progress with artificial intelligence (AI) in the spotlight. Among the many problems of NLP, question-answer (QA) is a problem in which an AI algorithm finds the right answer to the question within a paragraph. Securing artificial intelligence models and training data are utmost important to achieve good performance of AI. In particular, QA data requires a lot of direct human intervention due to grammars and relationships between questions and answers, making it difficult to obtain a data set. To solve this problem, this paper proposes a QA data augmentation method consisting of four steps: answer generation, question generation, round-trip filter technique, and verification. Experiment results shows that the QA performance of the model trained using the augmented data could achieve up to 1.13-fold increase in terms of F1-score compared to the model learned by using KorQuAD data only.

목차

요약
Abstract
1. 서론
2. 관련 연구
3. 제안하는 방법
4. 실험 및 성능분석
5. 결론
References

참고문헌 (27)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0