전체메뉴

검색
팝업창 닫기
이메일보내기

딥시크, 저사양 칩으로 AI 만들었지만…"고성능 GPU·HBM 필요해" [biz-플러스]

딥시크 훈련모델 V3 구현에 80억 들어

美 빅테크 AI 훈련 비용의 단 10%

비용 일부만 공개…"진짜 저가형 AI인지는 따져봐야"

효율형 AI 진입하며 GPU 감소론도 고개

美, '우주 경쟁' 때처럼 AI 투자 더욱 속도 붙일 듯





‘AI 업계의 테무와 알리가 미국 빅테크 투자에 묵직한 한 방을 날렸다.’

딥시크가 오픈AI의 인공지능(AI) 모델을 뛰어넘었다는 소식이 나오자 반도체 업계는 충격에 빠졌다. 중국은 미국의 강도 높은 규제로 엔비디아의 최첨단 AI 반도체를 활용할 수 없는 상황이지만 이름이 알려지지 않은 중국의 자그마한 스타트업이 수천 장의 저사양 그래픽처리장치(GPU)만으로도 오픈AI의 아성을 무너뜨렸기 때문이다. 저가형 모델의 출현으로 AI 반도체의 왕으로 군림하던 엔비디아의 주가가 하루 사이 20% 가까이 떨어지는 일도 있었다.

그러나 미국의 쟁쟁한 빅테크들은 ‘저가형 AI’ 공세 속에서도 오히려 중국의 의지를 꺾기 위한 대규모 투자를 준비하는 모습이다. 미중 AI 업체들이 AI용 메모리인 고대역폭메모리(HBM)의 필요성을 재차 강조하면서 양대 메모리 회사인 삼성전자·SK하이닉스의 수혜도 예상된다.

엔비디아 GPU ‘H800’. 사진제공=엔비디아


◇오픈AI 제치는 데 필요했던 저사양 GPU, 단 2048장=딥시크는 추론형 AI 모델인 ‘R1’을 내기 한 달 전 훈련 모델인 ‘V1’에 2048장의 GPU만 썼다고 공개했다. 이들이 V1을 구현하기 위해 쓴 비용은 단 557만 6000달러(약 80억 원)다. 빅테크들이 한 개의 AI 모델을 개발하기 위해 한 해 동안 투자하는 돈과 GPU의 10%에도 미치지 않는다는 사실에 업계는 충격에 빠졌다.

이들이 엔비디아의 저사양 서버용 GPU인 ‘H800’을 활용했다는 것도 핵심 포인트다.

딥시크는 미 정부의 강도 높은 AI 칩 수출규제로 엔비디아가 만드는 최첨단 GPU를 자유롭게 활용할 수 없다. 대신 이들은 엔비디아에 고사양 칩에 속하는 H100의 성능을 대폭 낮춘 H800을 공급 받고 있다. H800은 H100보다 데이터 전송속도가 55%나 낮은 초당 400GB 수준에 불과하다.

수천 장에 불과한 저사양 GPU로도 최상의 성과를 낼 수 있었던 것은 딥시크가 독자 개발한 AI 모델 때문이다. 딥시크는 엔지니어가 정확한 데이터를 축적한 AI 모델에 일종의 ‘보상’을 지급하는 강화 모델을 업그레이드했다. AI 스스로 자신의 데이터 훈련·추론 역량을 강화할 수 있는 모델을 개발해 데이터 정확도와 정보처리 속도를 대폭 개선한 것이다.

다만 딥시크의 저가형 AI를 더욱 면밀히 분석해야 한다는 주장도 제기되고 있다. 우선 딥시크는 현재 화두가 되고 있는 추론 모델인 R1 개발 비용을 공식적으로 발표한 적이 없다. 이들은 V3 구현에 든 돈이 80억 원이라고 설명하면서 “V3의 공식적인 훈련 비용만 포함한 것이고 사전 연구와 소거 실험에 관련된 비용은 제외시켰다”고 말했다. 비용의 일부만 공개한 셈이다.



이 때문에 딥시크의 모델을 저가형 AI로 불러도 될 만한 것인지에 대한 의문이 증폭되고 있다. 일각에서는 2048장의 저사양 GPU 뒤에는 5만 장의 H100이 동작하고 있다는 소문까지 돌고 있다. 업계의 한 관계자는 “딥시크의 설명은 마치 축구 경기에서 손흥민 선수가 동료들과의 패스·빌드업 과정을 생략하고 1초 만에 골을 넣었다고 주장하는 것과 같다”고 설명했다.

구글의 데이터센터 전경. 사진제공=구글


◇저가형 AI 출현에도…“AI 칩 수요 더 늘어난다”=글로벌 AI 업계는 숱한 의심 속에서도 딥시크가 적어도 V3 구현에서는 저사양 GPU의 성능을 극대화하는 모델을 구현했다는 것을 높이 평가하는 분위기다. 이런 탓에 AI 시장 최대 수혜자였던 엔비디아의 질주가 멈출 것이라는 주장도 있었다. 값싼 GPU로도 얼마든지 AI를 구현할 수 있다는 가능성이 보이자 더 이상 천문학적인 GPU 투자는 필요하지 않을 것이라는 이유에서다.

하지만 최근 며칠 사이 정보기술(IT) 업계에서는 고급 AI 칩 개발과 투자가 더욱 활발해질 것이라는 의견 쪽으로 대세가 기울고 있다. 특히 미국의 반격이 더욱 거세질 것으로 보인다.

1950년대 미국과 소련의 대표적인 기술 패권 다툼인 ‘우주 경쟁’ 때처럼 미국은 중국보다 훨씬 나은 대규모언어모델(LLM) 및 로봇용 AI를 만들기 위한 투자에 열을 올릴 것이라는 전망이 지배적이다. 700조 원 규모의 AI 프로젝트인 ‘스타게이트’에 엔비디아·AMD 등 미국 회사의 최첨단 GPU를 투입하는 것은 물론 구글과 브로드컴 등 미국 최고의 빅테크들이 주문형칩(ASIC) 협력을 이어나갈 것으로 관측된다.

실제 딥시크 진입 이후 미국의 빅테크 업체들은 AI 투자는 위축되지 않을 것이라는 점을 분명히 했다. 마크 저커버그 메타 최고경영자(CEO)는 29일(현지 시간) 2024년도 4분기 실적 발표회에서 “AI 설비에 큰 투자를 하는 게 시간이 지나면서 전략적 이점이 될 것이라고 생각하고 있다”며 대규모 투자를 시사했다.

저가형 AI의 아이콘이 떠오른 딥시크마저도 고성능 GPU와 HBM은 지속적으로 필요하다는 의견을 냈다. 이들은 V3 기술 리포트를 통해 “(현존하지 않는) 34비트 누적 정밀도를 만족하는 GPU가 필요하다”며 “메모리에서는 연산이 가능한 HBM이 필요하다”고 주장했다. 연산이 가능한 HBM은 맞춤형 칩인 ‘커스텀’ 메모리로 불리는데 삼성전자와 SK하이닉스가 2027년부터 양산할 것으로 예상되는 반도체다. 일각에서 하이닉스·삼성전자의 수혜를 전망하는 이유 중 하나다.

< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서경 마켓시그널

헬로홈즈

미미상인