전체메뉴

검색
팝업창 닫기
이메일보내기

수능 올 1등급·멀티데이터 학습…'국대AI' 선발전 막 올랐다

■네이버·SKT 등 '독자AI 프로젝트'

네이버 하이퍼클로바X 모델 2개

인간 사고 모방…성능 대폭 개선

SKT '5000억 매개변수' 승부수

NC·업스테이지도 독자모델 선봬

학계와 문법 특화 등 공개 예고도

독자 AI 파운데이션 모델 로고. 사진 제공=과학기술정보통신부




주재걸 한국과학기술원(KAIST) 김재철AI대학원 교수 연구팀과 SK텔레콤이 공동 개발한 영상 객체 삽입(VOI) 기술. 원본 영상(왼쪽)에 임의의 객체인 가방을 자연스럽게 삽입한 모습(오른쪽). 사진 제공=KAIST


글로벌 빅테크에 맞설 국가 대표 인공지능(AI) 모델 선발전이 본격적으로 시작되면서 관련 기업들이 앞다퉈 기술력 과시에 나섰다. 이들의 경쟁 대상은 경합 예정인 국가 대표 모델 뿐만이 아니다. 영상 개체 삽입이나 문법 특화 학습, 모델 확장 기법 같은 고난도 신기술을 학계에 공개하는 일종의 ‘장외전’까지 벌이며 소버린(자립형) AI 주도권을 두고 전방위적 경쟁에 돌입했다.

네이버는 29일 ‘독자 AI 파운데이션 모델 프로젝트’를 통해 개발한 첫 모델 ‘하이퍼클로바X 시드 8B 옴니’와 ‘하이퍼클로바X 시드 32B 싱크’를 공개했다. 하이퍼클로바X 시드 8B 옴니는 텍스트·이미지·오디오 등 여러 종류의 데이터를 처음부터 동시에 학습한 국내 첫 옴니모달이다. 한 가지 데이터를 먼저 학습한 후 순차적으로 다른 종류의 데이터를 추가해나가는 기존 멀티모달(다중모델)보다 복잡한 정보 처리와 성능 확장에 유리해 로봇·자율주행차 같은 피지컬(물리적) AI 구현을 위한 신기술로 주목받는다.

하이퍼클로바X 시드 32B 싱크는 인간 사고를 모방해 성능을 획기적으로 높인 추론형 모델 최신 버전이다. 이 모델은 올해 대학수학능력시험 문제를 풀어 국어·수학·영어·한국사 등 주요 과목에서 일부 만점을 포함해 모두 1등급을 받았다. 텍스트 변환 없이 이미지로 문제를 직접 읽을 수 있으며 이 같은 종합 지식·고난도 추론 등 글로벌 평가에서 해외 주요 모델들과 비슷한 성능을 기록했다고 네이버는 전했다. 성낙호 네이버클라우드 하이퍼스케일 AI 기술총괄은 “기본기를 갖춘 구조를 토대로 모델 규모를 확장할 계획”이라고 말했다.





독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업으로 30일 1차 발표회에서 첫 성과가 발표된다. 네이버와 SK텔레콤(017670), LG(003550) AI연구원, NC AI, 업스테이지 등 5개 컨소시엄이 경합을 벌인다.

이에 SK텔레콤도 전날 국내 최대 수준인 5000억 파라미터(매개변수)를 갖는 ‘에이닷엑스 K1’을 선보였다. 규모를 앞세워 경쟁사 대비 성능 우위를 확보한다는 전략이다. LG AI연구원은 기존 ‘엑사원’ 시리즈 기반의 글로벌 프론티어(최신)급 ‘K엑사원’, NC AI와 업스테이지도 제조업 등에 특화한 수천억 매개변수의 독자 모델을 발표회에서 공개한다.

이들의 소버린 AI 전쟁은 독자 AI 파운데이션 모델 프로젝트에 그치지 않는다. 최근 학계와 손잡고 개발한 다양한 고난도 기술을 앞다퉈 선보이며 국가 대표 AI 기업으로서의 경쟁력을 다방면으로 증명하겠다는 게 이들의 공통된 구상이다. 일례로 SK텔레콤은 주재걸 한국과학기술원(KAIST) 김재철AI대학원 교수 연구팀과 영상 개체 삽입(VOI) 모델 ‘인서트애니웨어(InsertAnywhere)’를 공동 개발해 조만간 공개한다. 이미지를 합성하듯 움직이는 영상 화면 속에도 자연스럽게 사물을 삽입할 수 있는 영상 생성 모델의 일종이다. ‘피카 프로’, ‘클링’ 등 기존 해외 기술을 국산화한 것은 물론 카메라 움직임이나 조명 변화로 인해 부자연스러워지는 영상 품질 문제를 개선해 더 높은 벤치마크(성능 점수)를 달성했다고 연구팀은 설명했다.

NC AI는 KT, 고려대, 미국 조지타운대와 공동 개발한 ‘구조화한 언어 생성 모델(SLGM)’을 다음달 열리는 AI 분야 최고 권위 학회 ‘전미인공지능학회(AAAI)’ 워크숍에서 발표한다. SLGM은 단순 언어 학습을 넘어 개체명 인식(NER), 관계 추출 등 문장 성분과 구조를 집중적으로 학습하는 기법이다. 쉽게 말해 대규모언어모델(LLM)보다 떨어지는 언어 학습량을 높은 문법 이해도로 만회하는 전략이다. 연구팀은 10억 매개변수 미만의 소형 모델도 이 기법을 통해 훨씬 큰 모델에 맞먹는 성능을 낼 수 있다고 설명했다. 업스테이지 역시 연세대와 모델 성능을 효율적으로 높이는 자체 기술 ‘깊이 확장 스케일링(DUS)’을 고도화한 ‘메모리 기반 깊이 확장 스케일링(MIDUS)’을 공동 개발해 이달 허깅페이스 등에 공개했다.

네이버는 단순 기술 개발을 넘어 검색·쇼핑·지도 등 자사 주요 서비스에 두루 적용할 수 있는 통합 AI 에이전트 ‘에이전트N’을 내년 상반기 출시하며 AI 생태계 구축을 꾀한다. LG AI연구원도 올 하반기부터 ‘엑사원 4.0’과 ‘엑사원 데이터 파운드리’ 등 다양한 분야에 적용할 수 있는 모델·데이터·인프라 통합 솔루션 ‘엑사원 생태계’를 넓히는 중이다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >

주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널