전체메뉴

검색
팝업창 닫기
이메일보내기

네이버, 블랙웰 4000장 클러스터 구축…AI 개발 속도 12배 향상

국내 최대 AI 컴퓨팅 인프라 확보

학습 기간 18개월→1.5개월

최수연 대표 "AI 자립·주권 뒷받침"

이해진(왼쪽부터) 네이버 이사회 의장과 젠슨 황 엔비디아 최고경영자(CEO), 최수연 네이버 대표가 2023년 6월 25일(현지 시간) 미국 실리콘밸리 엔비디아 본사에서 만나 기념촬영을 하고 있다. 네이버 인스타그램 캡처




네이버가 엔비디아의 인공지능(AI) 가속기 ‘B200’ 4000장을 기반으로 국내 최대 규모의 인공지능(AI) 컴퓨팅 클러스터를 구축했다. B200은 엔비디아의 최신 설계 구조 ‘블랙웰’ 기반의 AI 가속기다. B200은 전작인 H100 대비 AI 학습 성능은 3배, 추론 모델 가동 성능은 15배 뛰어나다. 네이버는 이번 ‘B200 4K 클러스트’가 글로벌 상위 500위 수준의 슈퍼컴퓨터와 비교할 수 있는 수준의 컴퓨팅 규모라고 설명했다. 네이버는 AI 인프라를 기반으로 독자 파운데이션 모델 성능을 글로벌 수준으로 끌어올리고 이를 산업 현장에 투입한다는 계획이다.

8일 네이버에 따르면 이번 AI 컴퓨팅 클러스트를 통해 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다. 네이버가 내부 시뮬레이션을 진행한 결과 720억 개 매개변수(파라미터) 규모 모델을 학습할 때 기존 A100 기반 주력 인프라(2048장)로는 약 18개월이 걸렸지만 이번 클러스터에서는 약 한달 반 수준으로 단축됐다. 네이버는 학습 효율이 12배 이상 향상되면서 더 많은 실험과 반복 학습을 통해 모델의 완성도를 높일 수 있게 됐다고 설명했다. 다만 내부 시뮬레이션 결과이기 때문에 실제 학습 과제와 설정에 따라 소요 기간이 달라질 수 있다.



네이버는 이번 클러스트에 냉각과 전력, 네트워크 최적화 기술을 집약했다고도 강조했다. 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 세계에서 가장 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영하는 등 실증 경험을 축적한 바 있다. 네이버는 신속한 인프라 확장을 위해 서울 지역 임대 데이터센터에 ‘B200 4K 클러스터’를 구축했다.

네이버는 이번 클러스트를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에 속도를 낼 계획이다. 텍스트뿐만 아니라 이미지·비디오·음성을 동시에 처리하는 옴니모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용할 예정이다.

최수연 네이버 대표는 “이번 AI 인프라 구축은 단순 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보한 것”이라며 “네이버는 빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 유연하게 적용할 계획”이라고 말했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널