인공지능(AI) 기본법 시행이 불과 이틀 앞으로 다가왔지만 불명확한 법령 적용 기준으로 인해 산업 현장은 혼란을 호소하고 있다. AI활용이 많은 정보통신기술(ICT) 업계는 약관을 개정하는 등 AI 기본법 채비를 하고 있지만 본의 아니게 위법행위를 저지를 수 있다는 우려가 크다. 법안 곳곳이 그레이존(grey zone)이기 때문이다.
전문가와 업계는 법을 시행하면서 현실에 맞춰 나가는 적응 과정이 불가피하다고 보고 있다. 이에 세계에서 처음으로 시행되는 AI 기본법이 규제의 칼이 될지, 혁신의 무기가 될 지는 정부의 운영 의지에 달렸다는 평가가 나온다.
20일 업계에 따르면 카카오는 22일 AI기본법 시행에 대비해 다음달 4일부터 개정 약관을 적용한다. 새로운 운영 약관에는 ‘AI에 기반해 운용되는 서비스가 포함될 수 있으며 AI에 의해 생성된 결과물을 제공할 경우 관련 법에 따라 고지·표시한다’는 내용이 담겼다. AI 기본법에 따르면 AI를 이용해 만든 이미지, 영상, 음성 콘텐츠에는 ‘AI 생성물’임을 알리는 식별 표시(워터마크)를 해야 하기 때문이다. 이른바 투명성 의무다.
다만 실무적인 워터마크 방안 논의는 카카오를 비롯한 콘텐츠 플랫폼 업계 내부에서 여전히 논의 중이다. 이를 테면 숏폼 서비스에서 ‘AI 생성 영상’이라는 안내를 할 때 영상 초반에만 고지하는지, 영상 전체에 워터마크를 붙일지는 여전히 정부와 협의 대상이다. 게임업계의 한 관계자는 “AI로 개발한 게임이 투명성 의무 대상인지, 특정 요소에만 AI가 쓰였어도 워터마크를 고지해야 하는지 그 기준은 여전히 관계 기관과 협의를 진행 중”이라고 말했다. 또 다른 업계 관계자는 “AI영상편집기로 영화를 만들었다면 편집 프로그램 업체가 고지의 의무를 가지는 지, 영화사가 고지의 의무를 가지는 지도 불투명하다”며 “일단 시행하면서 정부의 방침이나 법 적용을 지켜볼 수밖에 없는 상황”이라고 말했다.
글로벌 빅테크들도 우려가 크다. 마이크로소프트(MS), 오픈AI 등이 회원사로 참여한 글로벌 소프트웨어 업계 단체 비즈니스소프트웨어얼라이언스(Business Software Alliance·BSA)는 지난달 22일 과학기술정보통신부에 권고안을 제출하고, AI 기본법의 일부 조항에 대해 과태료 유예 만으로는 충분하지 않다며 법적 의무 이행 자체를 한시적으로 유예해 달라고 요청했다.
BSA가 해당 권고안에서 가장 중점적으로 지적한 부분은 ‘고영향 AI’ 규정이다. 고영향 AI는 생명·신체 안전이나 기본권에 중대한 영향을 미칠 수 있는 AI로, 의료·에너지·금융·채용 등 민감한 분야에서 활용되는 AI를 의미한다. 투명성 의무와 함께 국내외 기업 모두 기준의 불명확성에 대한 부담을 호소하는 분야다.
해외 기업들은 이 문제가 글로벌 서비스 설계와 출시 전략 전반에 영향을 미칠 수 있다고 우려하고 있다. 어떤 AI가 고영향 AI에 해당하는지 사전에 판단하기 어려워 한국에 해당 서비스를 출시해도 되는지 조차 미리 알기 어렵다는 것이다. BSA는 권고안에서 “고영향 AI 판단 기준이 명확하지 않은 상황에서 관련 의무가 즉시 적용될 경우 기업들은 과도한 사전 준비 비용과 예측하기 어려운 법적 리스크를 떠안게 된다”고 설명했다.
BSA는 이 밖에 고영향 AI의 판단 기준으로 제시된 연산량(FLOPS) 기준에 대해서도 기술 변화 속도를 반영하지 못한다고 지적했다. 또 국내 대리인을 지정하도록 한 조항 역시 부담 요소로 꼽고 있다. 시행령에서 대리인의 책임 범위를 명확히 규정하지 않고 있기 때문이다.
전문가들은 22일 시행 후 1년 간의 처벌 유예기간 동안 정부가 처벌 위주로 법을 적용할 경우 불확실성에 따른 부작용이 더욱 커질 것으로 보고 있다. 한국인공지능법학회 회장인 최경진 가천대 법대 교수는 “AI모델이나 서비스가 불신을 받으면 수요가 위축되기 때문에 AI기본법을 통해 안정성과 신뢰성을 갖추려는 정부의 취지는 산업 관점에서도 긍정적”이라며 “다만 기준이 불명확한 상황에서 법을 규제의 도구로 쓰면 AI 혁신은 위축될 수 밖에 없기 때문에 시행 후 운영의 묘가 중요한 시점”이라고 말했다.
한편 국제 인권단체인 기업과인권리소스센터(BHRRC)는 “EU AI법은 공공장소 얼굴 인식 등 인권 위험이 큰 AI를 명시적으로 금지하고 있지만, 한국 AI 기본법에는 이와 같은 금지 조항이 전혀 없다”며 기준 강화가 필요하다고 강조했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >





rok@sedaily.com








