전체메뉴

검색
팝업창 닫기
이메일보내기

"분야별 전문모델 결합"…AI도 분업 시대 연다

■국내 MoE 모델 개발 속도

SKT '에이닷엑스' KT '믿음' 등

대형언어모델보다 연산비용 아껴

첫 오픈소스 카카오 '카나나' 주목

中, 딥시크 이어 키미로 주도권

MoE 모델 작동 구조. 사진 제공=카카오




인공지능(AI) 모델의 성능 한계를 분업 시스템으로 극복하는 신기술 ‘전문가혼합(MoE)’ 모델 개발에 국내 주요 기업들이 앞다퉈 나서고 있다. 모델 크기를 무작정 키우는 대신 작지만 분야별 전문성을 가진 모델들을 합쳐 작업을 효율화하는 기술이다. 올 초 딥시크 열풍을 계기로 중국에서 집중 개발되는 가운데 소버린(자립형) AI를 내세운 국내 기업들도 경쟁력 확보를 위해 관련 대응에 나선 것이다.

28일 정보기술(IT) 업계에 따르면 SK텔레콤은 ‘에이닷엑스(A.X) MoE’ 모델 공개를 목표로 관련 연구개발(R&D)을 진행 중이다. 최근 선보인 에이닷엑스 3.1과 4.0에 이어 MoE 모델도 자체 개발하겠다는 것이다. MoE는 분야별로 특화한 작은 모델, 이른바 ‘전문가’들을 합쳐 하나의 AI 모델을 만드는 기술이다. 이용자가 질문이나 명령을 하면 AI 모델 전체가 아니라 그중 금융·법률 등 관련된 분야 전문가만 나서서 작업을 수행한다. 모델 전체가 모든 작업에 동원되는 기존 대형언어모델(LLM)보다 연산 비용을 줄일 수 있다.





SK텔레콤은 최근 MoE 모델의 ‘전문가 활성화 불균형’을 개선한 연구성과를 공개했다. MoE는 이용자 질문·명령별 가장 적합한 전문가를 불러내는 ‘라우팅’ 과정이 필요하다. 라우팅이 제대로 이뤄지지 않으면 특정 전문가만 자주 불려나가 일하고 나머지 전문가는 방치된다. 이에 오히려 LLM보다 비효율적일 수 있는 문제를 SK텔레콤 연구진이 개선했다는 것이다.

KT도 이달 초 LLM ‘믿음 2.0’을 공개하며 “향후 MoE 구조 같은 대규모 모델 아키텍처 확장과 학습 효율성 연구를 지속할 계획”이라며 MoE 모델 개발 방침을 밝혔다. 카카오는 24일 국내 최초 오픈소스(개방형) MoE 모델 ‘카나나-1.5-15.7B-A3B’를 공개하며 주도권 확보에 나섰다. 이 모델이 기존 모델보다 2~3배 적은 파라미터(자원)만으로 더 높은 추론 연산을 할 수 있다는 설명이다. LG AI연구원은 앞서 AI 서비스 ‘챗엑사원’에 MoE 기법을 적용했다. ‘엑사원’ 모델 자체는 MoE가 아니지만 이 모델 여러 개를 각각의 전문가로 만들어 이용자가 MoE처럼 쓸 수 있게 구현한 것이다.

현재 중국은 올 초 딥시크가 MoE 모델을 선보인 후 최근 ‘제2의 딥시크’로 주목받는 문샷AI ‘키미 K2’도 등장하는 등 주도권 경쟁에 적극적이다. 미국에서는 딥마인드가 지난해 전문가 수백만 개를 구현할 수 있는 기술 ‘피어(PEER)’, IBM은 올 초 MoE 모델 연산에 특화한 AI 칩 개발 성과를 발표했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널