• 최종편집 : 2021.10.22 금 20:06
상단여백
HOME 뉴스종합 IT·과학
인공지능 학습 더 빠르고 정확하게, 서울대 공대 전병곤 교수팀 데이터 증강 시스템 ‘리뱀퍼’ 개발학습 모델 품질 유지하며 데이터 재사용 가능한 새로운 시스템, 세계 선도
박용환 기자 | 승인 2021.05.14 06:14
[뉴스에이 = 박용환 기자] 서울대학교 공과대학(학장 차국헌)은 컴퓨터공학부 전병곤 교수팀이 데이터 증강(Data Augmentation) 과정을 최적화해 머신러닝 학습 수행 시 기존 시스템 대비 최대 2배 빠른 속도로 수행하는 리뱀퍼(Revamper) 시스템을 개발했다고 13일 밝혔다.

해당 시스템을 통해 다양한 분야에서 보다 효율적인 인공지능 학습 수행이 가능할 것으로 기대한다.

데이터 증강은 학습 데이터에 임의의 변환 연산을 적용함으로써 실질적인 학습 데이터의 수를 증가시키는 것을 말한다. 데이터 증강은 인공지능 학습 모델의 정확도를 높이지만 학습의 속도를 저하시킨다는 문제가 있다.

학습 속도 저하 문제를 해결하기 위해 전병곤 교수 연구진은 새로운 데이터 캐싱 시스템인 리뱀퍼를 개발했다. 구글에서 제안한 기존 방식은 최종 증강한 표본을 일정 횟수 재사용해 학습 속도를 향상시켰지만 모델의 정확도는 저하됐다.

이와 달리 전병곤 교수 연구진은 학습된 모델의 정확도 저하 없이 표본을 재사용하는 데이터 리퍼비싱(Data Refurbishing) 기법을 제안했다. 데이터 리퍼비싱은 데이터 증강 과정을 두 부분으로 나눠 부분적인 데이터 증강 연산이 적용된 표본들을 일정 횟수 재사용하고, 학습에 사용하기 전에 나머지 증강 연산을 수행하는 방식으로 모델 정확도 저하 문제를 해결했다.

연구진은 리버비싱 방식을 효율적으로 지원하기 위해 재사용하는 표본들을 여러 학습 스텝에서 고르게 사용하는 새로운 캐싱 시스템인 리뱀퍼를 구현했다. 리뱀퍼는 파이토치(PyTorch) 데이터 로더 대비 최대 2배 빠른 인공지능 학습 속도를 제공한다. 리뱀퍼는 개발 시 사용자의 편의성을 고려해 설계했으며 기존에 사용하던 파이토치 모델을 리뱀퍼를 이용해 빠르게 수행할 수 있다. 연구진은 리뱀퍼를 파이토치 사용자들이 활용할 수 있도록 공개할 계획이다.

이 연구 결과는 7월 컴퓨터 시스템 분야에서 권위 있는 학회 USENIX ATC(Annual Technical Conference)에서 발표될 예정이다.

전병곤 교수는 이번 개발에 대해 “세계를 선도하는 인공지능 플랫폼 기술을 연속해서 발표하게 돼 기쁘다. 앞으로 프렌들리에이아이(friendli.ai)를 통해 초대형 인공지능을 만들어 서비스로 제공하겠다”고 소감을 밝혔다.

◇논문 제목

“Refurbish Your Training Data: Reusing Partially Augmented Samples for Faster Deep Neural Network Training”, Gyewon Lee, Irene Lee (Georgia Institute of Technology), Hyeonmin Ha, Kyunggeun Lee, Hwarim Hyun, Ahnjae Shin, and Byung-Gon Chun.

박용환 기자  newsa@newsa.co.kr

<저작권자 © 뉴스에이, 무단 전재 및 재배포 금지>

박용환 기자의 다른기사 보기
icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
여백
여백
여백
여백
여백
대표인사말기사제보광고문의불편신고개인정보취급방침청소년보호정책이메일무단수집거부
서울특별시 금천구 시흥대로18길 9 (시흥동) 201호  |  대표전화 : 02-6083-0691   |   팩스 : 02-6406-0691    
이메일 : newsa@newsa.co.kr
등록번호 : 서울 아 01287  |  등록일 : 2008.05.09  |  발행인 : 정국희  |  편집인 : 이광원  |  청소년보호책임자 : 이사라
뉴스에이의 모든 콘텐츠(기사 등)는 저작권법의 보호를 받은바, 무단 전재, 복사, 배포 등을 금합니다.
Copyright © 2021 뉴스에이. All rights reserved.
Back to Top