사전 학습 언어 모델의 미세 튜닝을 활용한 버그 담당자 추천 기법
Recommendation Technique for Bug Fixers by Fine-tuning Language Models
Citations

WEB OF SCIENCE

0
Citations

SCOPUS

0

초록

최근 소프트웨어의 규모와 복잡성이 지속해서 증가하고 있으며, 이는 다양한 버그를 유발하고 있다. 이에 따라 체계적 버그 관리의 필요성이 지속해서 제기되고 있다. 산업계에서는 다수의 연구들은 단어 기반의 학습 모델을 이용하여 버그 담당자 배정을 자동화하는 방법을 제시하였다. 하지만 이들은 대체로 단어 맥락 미고려, 클래스 개수 과다 등의 요인으로 정확도가 만족스럽지 못한 성능을 보인다. 본 논문에서는 BERT 및 이를 기반으로 한 RoBERTa, DeBERTa, CodeBERT등을 기반으로 사전 학습 언어 모델을 파인 튜닝하여 Top-10 정확도 기준 약 27%p의 정확도 향상을 이루어 냈으며, 결과적으로 약 70%의 정확도를 보이는 것을 실험을 통해 확인하였다. 이를 통해 파인 튜닝된 사전 학습 언어 모델 기반의 접근 방법이 버그 담당자 배정 자동화 문제에 효과적으로 적용될 수 있음을 보였다.

키워드

bug managementbug fixer assignmentmachine learningnatural language processingpre trained language mode버그 관리버그 담당자 배정머신러닝자연어 처리사전 학습 언어 모델
제목
사전 학습 언어 모델의 미세 튜닝을 활용한 버그 담당자 추천 기법
제목 (타언어)
Recommendation Technique for Bug Fixers by Fine-tuning Language Models
저자
왕대성성훈이찬근
DOI
10.5626/JOK.2022.49.11.987
발행일
2022-11
저널명
정보과학회논문지
49
11
페이지
987 ~ 998