김윤명
김윤명 디지털정책연구소 소장
연재 중
AI 웨이브
19개의 칼럼 #경제
  • AI 웨이브
    ‘규제혁신’은 정부가 기술정책을 말할 때마다 빠지지 않고 등장하는 단어다. 인공지능, 블록체인, 자율주행, 바이오 등 새로운 산업이 떠오를 때마다 규제는 흔히 ‘속도를 늦추는 장애물’로 지목되고, 규제완화는 ‘성장의 열쇠’로 환영받는다. 정부는 “먼저 허용하고 나중에 보완한다”는 이른바 ‘선허용-후규제’ 전략을 내세우고, 기업들은 시장 진입 기회의 확대를 기대한다. 실제로, 스타트업과 기술 기반 기업에게 규제완화는 초기 투자 리스크를 낮추고 실험을 용이하게 만들어주는 유연성의 상징처럼 여겨진다. 정부 역시 일자리 창출, 산업 경쟁력 강화, 기술 주도권 확보라는 명분 아래 규제개혁을 적극적으로 추진하고 있다. ‘규제샌드박스’, ‘네거티브 규제전환’ 등의 제도는 이러한 흐름을 제도화한 결과다. 하지만 이런 흐름이 기업이 바라는 ‘지속가능한 기술 발전’으로 곧장 이어지는지에 대해서는 보다 신중한 논의가 필요하다. 규제를 단순히 없애는 것이 기술 생태계의 건전한 성장을 보장하는가. 현실은 꼭 그렇지만은 않다. 단기적 규제완화는 기술개발을 촉진할 수 있지만, 장기적으로는 법적 안정성과 사회적 신뢰가 결여된 환경에서 기술 생태계가 불안정해질 수 있다. 규제가 없다고 해서 기술이 반드시 발전하는 것은 아니며, 오히려 방향 상실, 사회적 반발, 글로벌 기준과의 괴리라는 문제에 직면할 수 있다. 규제는 기술을 방해하는 존재가 아니다. 규제는 기술이 사회 안에서 조화롭게 작동하도록 돕는 장치이며, 기술 발전의 방향을 함께 설계하는 기준선이다. 규제혁신은 규제를 없애자는 것이 아니라, 기술과 시대의 변화에 맞춰 규범과 절차를 재구성하자는 요청이다. 예컨대 개인정보보호라는 규범을 전면화한 유럽의 개인정보보호일반규정(GDPR)은 글로벌 기업들에게 기술적 구조를 수정하게 했고, 그 결과 사용자들의 신뢰는 오히려 증대되었다. 규제는 기술에 제동을 거는 것이 아니라, 그 기술이 인간을 위한 것이 되도록 안내하는 길잡이 역할을 한다. 문제는 ‘규제’에 대한 왜곡된 인식이다. 규제는 늘 기업을 옥죄는 적으로만 간주되고, ‘혁신’은 규제와 반대편에 서 있는 것처럼 묘사된다. 그러나 규제는 기술의 위험을 조정하고 사회적 신뢰를 확보하는 장치다. 기업이 바라는 기술 발전은 단지 수익이 아니라, 시장 수용성과 제도적 정당성 위에서 비로소 지속 가능해진다. 규제는 그 기반이다. 그럼에도 불구하고, 규제를 비판하는 많은 기업들이 정작 ‘자율규제’를 하라고 하면 어떻게 해야 할지를 모른다. 정부가 규제하면 관치라 비판하고, 자율에 맡기면 가이드라인을 달라고 한다. 이는 ‘규제는 외부에서 주어지는 것’이라는 수동적 규제문화의 반영이다. 자율규제를 원한다면 먼저 자율규제를 설계하고 운영할 수 있는 역량을 갖추는 것이 순서다. 최근 발생한 SK텔레콤과 예스24의 해킹사건은 이러한 맥락에서 시사점이 크다. ‘규제혁신’의 분위기 속에서 기본적인 사이버보안 대책조차 허술했다면, 이는 규제의 문제가 아니라 사업자의 태도와 역량, 그리고 책임 회피의 문제다. 규제의 부재를 혁신의 기회로 착각할 때, 기술은 오히려 사회적 위험이 된다. 오늘날 기술은 단순한 도구가 아니라 사회를 재구성하는 힘이다. 그러므로 기술정책은 민주주의의 문제로 확장된다. 특정 기업이나 기술집단에 의해 규제체계가 설계될 때, 시민의 권리와 공공의 안전은 어떤 방식으로 보장되는가. 규제는 바로 그 논의의 통로이며, 공공의 가치가 반영되어야 하는 절차다. 따라서 진정한 기술 발전은 단기적 자유나 유연성만으로 달성되지 않는다. 사회 전체가 수용하고, 제도적으로 뒷받침되며, 신뢰 위에서 작동하는 기술만이 지속 가능하다. 규제는 그 신뢰를 설계하는 장치이며, 기술의 인간 중심성을 지키는 제도적 약속이다. 혁신은 자유 속에서 이뤄지지만, 그 자유는 규범 위에서만 정당화된다. 이 점에서 규제는 결코 시대에 뒤처진 것이 아니다.
    2025.06.19 10:02:27
    ‘규제’에 대한 몇 가지 오해
  • AI 웨이브
    AI는 단지 정보를 전달하는 수단이 아니라, 민주주의를 작동시키는 새로운 질서의 매개체가 될 수 있다. 이재명 대통령이 표방한 ‘국민주권정부’는 통치의 정당성이 국민의 일상적인 참여와 피드백의 순환 구조 안에서 재확인되는 거버넌스로 이해된다. ‘국민이 주인인 나라, 진짜 대한민국’이라는 표현은 이러한 가치를 상징한다. 이는 AI 기본사회가 지향하는 원칙인 기술은 모두에게 열려 있어야 하며 누구도 기술에서 배제되어서는 안 된다는 접근과 정확히 맞닿아 있다. AI 기반 기술은 대표성과 통제를 동시에 구현하기 어려웠던 기존 행정 시스템의 구조를 바꾸는 참여적 전환 도구가 될 수 있다. 예컨대 ‘국민 AI 비서’는 단순한 정보 제공 기능을 넘어서, 시민이 행정에 질문하고 반론하며 제안할 수 있는 양방향 인터페이스로 작동할 수 있다. 정책 결정의 배경이나 기준이 명확하지 않을 때, 국민은 AI 시스템을 통해 “왜 이 정책이 필요한가”, “다른 대안은 무엇인가”를 실시간으로 묻고 응답받을 수 있다. 이는 설명가능성이라는 기술 원칙이 정치적 책임성과 민주적 숙의의 확장으로 연결되는 구조다. 또한 AI는 참여의 기술적 진입장벽을 낮추고 디지털 주권의 실질화를 촉진한다. 온라인 공론장, 국민제안 플랫폼, 정책투표 시스템 등은 고도화된 언어 처리, 감정 분석, 요약 기술을 통해 누구나 쉽게 자신의 의견을 표현하고 정책으로 반영될 수 있는 구조를 제공한다. 과거의 행정이 선택된 전문가의 언어로 구성되었다면, AI는 다양한 언어와 감정, 삶의 맥락을 인식하고 조직화하는 능력을 통해 다층적인 참여를 가능하게 한다. 무엇보다 중요한 점은 모두의 AI가 정부의 도구가 아니라 ‘국민의 도구’로 작동해야 한다는 점이다. 참여민주주의는 단순히 정보를 소유하거나 열람할 수 있는 권리에서 멈추지 않는다. 핵심은 시민이 그 정보에 기반해 정부 정책에 대해 질문하고, 이의를 제기하거나 대안을 제시하며, 실제로 정책 결정 과정에 영향을 미칠 수 있도록 제도적 통로를 갖추는 데 있다. 이재명 정부의 국민주권정부 구상은 기술과 정치, 권리와 참여가 분리되지 않는 새로운 거버넌스 모델을 제시하며, AI 기본사회는 이러한 구조를 제도와 기술이 만나는 지점에서 구체화할 수 있다. 이를 위해 헌법 개정 시 디지털 국가 원리가 헌법의 통치 이념에 반영될 수 있도록 하는 것도 필요하다. 결국 기술은 통치의 수단이 아니라, 국민의 참여를 구성하는 인프라가 되어야 한다. AI를 통해 실현되는 기본사회는 더 많은 데이터를 수집하는 체제가 아니라, 더 많은 시민이 권리를 행사할 수 있는 민주주의의 확장판이다. 그것은 이제 선언이 아니라 설계와 실천의 문제다.
    2025.06.12 08:47:33
    AI 기본사회와 국민주권정부
  • AI 웨이브
    지금 세계는 AI 전쟁 중이다. 이는 비유가 아니라 냉혹한 현실이다. 데이터나 알고리즘이 총알이고, GPU가 무기이며, 언어모델(LLM)은 군수물자이다. 누가 먼저 기술을 장악하느냐에 따라, 산업과 경제, 외교의 질서까지 판가름 나는 전면적 충돌의 시기다. 미국은 국가안보 차원에서 반도체와 AI 수출 통제를 강화하고 있으며, 중국은 국영자본을 동원한 기술독립 전략에 박차를 가하고 있다. 유럽연합은 AI 규제법과 산업정책을 동시에 설계하며 주도권 확보에 나섰다. 이 판에서 우리나라는 어디에 서 있는가. 문제는 우리가 AI를 여전히 산업진흥이나 창업지원의 영역으로 축소하고 있다는 데 있다. 국가 전략이 아니라 부처 단위의 ‘과제’ 수준으로 접근하고 있는 것이다. AI는 더 이상 기술개발지원이나 규제완화로 대응할 수 있는 문제가 아니다. 지금 필요한 것은 ‘정책’이 아니라 ‘전략’이다. 그리고 전략은 혼란이 아니라 일관성 위에서만 가능하다. 무엇보다 중요한 것은 속도감이다. 미국 코로나 백신 개발 프로젝트인 ‘Operation Warp Speed’처럼, 실패는 허용하되 속도는 포기하지 않아야 한다. 그렇기 때문에 새로운 정부는 대통령 직속의 ‘AI 국가전략위원회’를 설치해야 한다. 현행 국가AI위원회는 폐지해야 한다. 기획재정부도, 과기정통부도, 산업부도 이 전쟁의 지휘부가 될 수 없다. 그들은 병참본부로서 역할에 충실해야 한다. 전략은 기술을 이해하는 자가 짜야 하며, 지금 우리나라에 필요한 것은 행정가나 경영자가 아닌 야전형 기술 사령관이다. AI 전쟁의 리더는 현장에서 알고리즘을 만지고, 모델을 훈련하고, 틀을 이해하는 AI 기술 전문가여야 한다. 국가 AI 전략의 리더십이 기술에서 멀어질수록, 전략은 문서만 남고 실행은 흐려진다. 우리가 수년간 목격한 것은 바로 이 ‘전략 부재의 반복’이다. 수십 개 부처가 서로 다른 로드맵을 내고, 이름만 다른 지원 사업이 중복되고, 정작 기업들은 GPU 하나 수급하지 못해 개발을 포기하는 일이 벌어진다. ‘AI 강국’을 외치면서도 기반 기술과 생태계에 대한 투자는 여전히 표류 중이다. 이제는 방향을 바꿔야 한다. 국가AI연구소를 설립하여 국가 차원의 기술축적과 인재양성 시스템을 통합하고, 산발적인 R&D 과제를 전략적으로 정렬해야 한다. 우리는 그동안 너무 많은 시간을 ‘보여주기식 정책’에 허비해 왔다. 스타트업 몇 곳 지원했다는 성과, AI 경진대회 몇 회 개최했다는 홍보, 국제기구 몇 곳 참여했다는 외교적 수치로 국가전략이 완성되지는 않는다. 지금 필요한 것은 환상을 걷어내는 일이다. 설명가능한 AI(XAI)와 같은 기술적 허상에 매달릴 시간에, 실제 글로벌 경쟁에서 살아남을 기술을 키워야 한다. 우리가 투자해야 할 것은 발표용 슬라이드가 아니라, 실제 코드를 짜고, 모델을 훈련하며, 국제 생태계에서 존재감을 확보할 수 있는 실전형 기술과 기업이다. AI 강국은 선언으로 만들어지지 않는다. 그것은 국가가 기술을 이해하고, 기술이 전략을 이끄는 체계 위에서만 가능하다. 전략이 없는 국가에겐 승리도 없다. 지금 이 순간에도 AI는 전 세계에서 진화를 멈추지 않고 있다. 전장을 외면한 채 회의실에서만 전략을 짜는 나라에겐 미래가 없다. 우리가 선택해야 할 시간은 지금이며, 준비해야 할 대상은 기술 그 자체다. 그리고, 우리에게 필요한 야전군은 기업의 AI 기술자들이다. 그들을 불러 모아야할 때이다. 전쟁에 승리하기 위한 몇 가지 전략을 제안한다. 첫째, K-LLM 전담 전투팀을 꾸려야 한다. 대한민국도 이제 말뿐인 K-모델이 아니라, 글로벌 수준에서 실제로 싸울 수 있는 자체 고성능 언어모델(K-LLM)을 확보해야 한다. 이를 위해 국가가 GPU와 데이터를 책임지고, 민간 기술자가 주도하는 전담 전투형 개발팀을 구성하라. 산업현장에서 즉시 투입 가능한 실전형 모델을 만들어야 한다. 전략 없는 기술은 무기 없는 군대와 같고, 기술 없는 전략은 말잔치일 뿐이다. 둘째, AI 연산 인프라를 민간에 개방해야 한다. AI는 연산이 곧 전투력이다. 스타트업이 GPU 부족으로 무너지는 동안 정부는 여전히 보고서만 쓴다. 국가가 수천 장의 GPU를 보유한 전용 AI 클러스터를 구축해 민간에 개방하고, 슬라이드가 아니라 소스코드로 평가하는 실전 배치체계를 만들어야 한다. 누구에게 총을 쥐여줄지, 그 기준은 문서가 아니라 코드로 정해야 한다. 셋째, 국가 전략데이터 API 개방이다. 모델이 아무리 정교해도 데이터가 없으면 움직이지 않는다. 공공과 민간이 보유한 고품질 데이터셋을 ‘국가 AI 전략 자산’으로 편성하고, 기술자에게 API 형태로 실시간 개방해야 한다. 특히 한국어·법률·교육·의료 등 전문분야 데이터는 한국만의 전장을 열 수 있는 무기다. 데이터는 보관하는 것이 아니라 공격적으로 사용하는 연료다. 네째, 민간 기술자를 실전에 투입해야 한다. 국가 프로젝트는 더 이상 회의실에서 회의하는 자리가 아니다. 대기업은 물론, 스타트업 CTO, 시니어 개발자, 현업 알고리즘 설계자를 국가 AI 전투현장에 직접 투입하고, GPU·인증·전략 자원을 집중 제공하라. 민간 기술자는 보고용 명단이 아니라 전장을 돌파할 진짜 전투원이다. 현장에 기술자를 보내는 나라만이 이 전쟁에서 살아남는다. 마지막으로 실시간 테스트베드를 구축해야 한다. 모델의 품질은 실험실이 아니라 현장 사용 중 오류로 증명된다. 민원 시스템, 의료 요약, 행정 자동화 등 공공 영역에 AI 모델을 즉시 배치하고, 실시간 피드백과 오류 리포트가 돌아오는 AI 실전 테스트 플랫폼을 구축하라. 기술자는 매일 실전에서 싸우고, 모델은 매일 실전에서 진화해야 한다. 그게 전쟁이다.
    2025.06.03 11:09:38
    새 정부는 ‘AI국가전략위' 만들어야
  • AI 웨이브
    그동안 우리가 당연하다고 여겨왔던 ‘기본’과 ‘모두’라는 개념은 AI 시대에 들어서며 그 의미가 전면적으로 재구성되고 있다. 단지 용어의 재정의가 아니라, 헌법 질서의 구조 전환을 요구하는 사유의 출발점이다. 우리 시대의 ‘기본’은 더 이상 최소 생존의 보장이 아니다. 전통적으로 ‘기본’은 인간의 생명을 유지하고 존엄을 지키기 위한 최소한의 조건으로 이해되었다. 식량, 주거, 교육, 의료, 노동 등은 이러한 생존 중심의 복지국가적 기본권 체계에서 핵심 구성요소였다. 그러나, 오늘날 AI 기술은 인간의 삶에 대한 조건을 ‘기술적 참여’ 여부에 따라 차별화하고 있으며, 단순한 생존이 아니라 사회적 소속과 판단 능력 자체를 좌우한다. AI가 인간의 의사결정 구조를 대체하거나 보조하는 환경에서 ‘기술의 비접근’은 곧 ‘사회적 배제’를 의미한다. 따라서, 새로운 ‘기본’은 기술로부터의 보호가 아닌, 기술을 통한 실질적 참여의 보장이어야 한다. ‘모두’는 형식적 평등이 아닌 실질적 접근을 뜻한다. ‘모두’라는 단어는 겉보기에 포용적이고 평등해 보이지만, 실제로는 구조적 불평등을 은폐할 위험도 있다. 기술 인프라와 교육, 언어 능력, 경제력, 지역 격차 등은 AI 기술에 대한 접근에서 결정적인 영향을 미친다. ‘모두의 AI’가 단순히 서비스를 개방한다는 의미에 그친다면, 사회적 약자는 여전히 소외될 수밖에 없다. 진정한 의미의 ‘모두’는 형식적 평등을 넘어, 실질적으로 접근하고 사용할 수 있는 권리로 설계되어야 한다. 이를 위해서는 디지털 접근권, AI 리터러시 보장, 맞춤형 공공 서비스 등 적극적 정책수단이 동반되어야 한다. 따라서, 모두의 AI는 국민 모두가 AI 서비스를 이용함에 있어서 제한이나 차별을 받지 않고 이용할 수 있는 AI 서비스가 되어야 한다. 그러한 점에서 실질적이고, 사회적 권리로서 AI 기본권이 인정될 필요가 있다. 이처럼, AI 시대의 ‘기본’은 기술과 권리의 결합이다. 기본은 더 이상 사회보장 제도의 내부 개념이 아니라, 기술 사회 전반에 대한 설계 원칙이 되어야 한다. 이는 권리 없는 기술 도입이 아니라, 권리를 전제로 한 기술 사회를 구성하는 패러다임의 전환이다. AI는 인간의 삶을 매개하고 판단을 구조화하는 도구이기에 기술 자체가 헌법적 의미를 띠는 존재 조건으로 기능한다. 즉, ‘AI 기본사회’란 AI 기술에 대한 접근·통제·이용·설명요구·이의제기 등이 보편적으로 보장되는 디지털 사회계약의 체계로 이해되어야 한다. 전통적인 사회계약이 노동구조에 따른 근간이었다면 기본사회에서의 사회계약은 디지털 환경에 적합한 계약내용을 구성하여야 한다. AI를 통해 구현되는 세상이라는 점에서 AI를 제대로 활용하지 못할 경우, 경쟁에서 배제될 수 있다. AI에 접근할 수 있는 환경과 그렇지 못한 환경에서 볼 때, AI는 하나의 권력이 될 수 있다는 점에서 이러한 차이가 차별로 확대되지 않도록 AI 기본권의 실질적 보장이 이루어지는 사회가 되어야 한다. 법과 헌법은 ‘기술 없는 기본’을 넘어야 한다. 기존의 헌법 이론은 기술을 외부적 요인으로 간주해왔으며, 대부분은 기술로부터의 보호라는 ‘방어적 권리 모델’에 기반해 왔다. 하지만 AI 사회에서는 기술이 기본권 실현의 수단이자 조건이 된다. 교육 받을 권리도 AI 튜터 없이 실현되기 어렵고, 행정 정보도 AI 기반으로 제공되는 시대에는 기술에 접근할 수 있어야만 권리를 행사할 수 있다. 즉, AI는 권리의 내용이자 방법이 되는 셈이다. 따라서, 법은 이제 기술 없는 기본권 논리에서 벗어나 기술로부터 권리를 확장하는 모델로 전환되어야 한다. ‘모두의 AI’는 새로운 사회계약의 조건이다. 전통 사회계약은 ‘세금과 복지’, ‘노동과 안전망’이라는 교환을 중심으로 구성되었다. 그러나 AI 사회의 기본계약은 ‘데이터와 권리’, ‘접근과 참여’, ‘기술과 책임’이라는 새로운 조합으로 구성되어야 한다. 이때 ‘모두의 AI’는 AI 기술이 일부 기업이나 국가 권력의 소유물이 아니라, 시민 모두가 동등하게 접근하고 설계에 참여하며 책임을 공유하는 공공 자산임을 선언하는 개념이다. 법률과 정책은 이 새로운 계약의 문법에 따라, 기술의 공공화와 시민 참여의 제도화, 공정 분배의 원칙을 명시적으로 내장해야 한다. ‘모두’와 ‘기본’은 AI 시대의 헌법적 기초다. 결국 ‘모두’는 기술 포용의 대상을, ‘기본’은 기술로 구성된 삶의 조건을 재정의하는 개념이다. 국민 모두가 평등하고 행복한 삶을 누릴 수 있어야 한다. 모두에게 기본이 되는 삶이 되어야 한다. 그렇지만 현실에서는 차이가 있다. 따라서, AI 기본사회는 이러한 ‘모두’와 ‘기본’의 재발견을 바탕으로, 기술과 권리의 관계를 재설계하고, 새로운 민주주의의 토대를 마련하는 시도다. 이 개념의 전환을 제도화하지 못한다면, AI 기술은 권리의 도구가 아니라 배제의 도구로 전락할 위험이 있다. 따라서, 국민 모두가 AI를 기본적으로 누릴 수 있는 사회인 AI 사회의 큰 의미는 AI에 대한 접근과 이용의 제한없는 AI 기본권의 보장이어야 한다. 앞으로, AI 기본권은 모든 정책·입법의 철학적·헌법적 기반이 되어야 한다.
    2025.05.30 14:42:28
    AI 시대 ‘모두’와 ‘기본’의 재발견
  • AI 웨이브
    대한민국은 기술의 전환점을 지나고 있다. 인공지능(AI)은 더 이상 산업의 도구만이 아니라, 인간의 삶을 구성하는 ‘필수조건’으로 변화하고 있다. 행정은 AI로 자동화되고, 교육은 AI 튜터와 함께 이뤄지며, 의료와 돌봄도 AI 기반 플랫폼 위에서 작동한다. 문제는 이 기술 전환이 과연 모두에게 공정한 기회로 주어지고 있는가 하는 점이다. 그동안 기술의 혜택은 불균등하게 분배되어 왔다. 고소득층과 대도시는 AI 기술을 빠르게 흡수하고 있지만, 농어촌 주민, 고령자, 장애인, 저소득층은 여전히 ‘기술 밖의 세계’에 머물러 있다. 인공지능은 기회의 문이지만, 통제되지 않으면 또 하나의 격차가 된다. 이제 우리는 이 기술을 모두의 삶을 위한 기반으로 재설계해야 한다. 그것이 바로 AI 기본사회의 출발점이다. AI 기본사회는 기술로 국민의 기본적 삶을 실질적으로 보장하는 새로운 사회계약이다. AI는 더 이상 소수의 자산이 아니라, 모든 국민이 향유해야 할 권리다. 이재명 더불어민주당 대선 후보가 제안한 기본사회는 주거, 의료, 교육, 돌봄, 교통, 정보 접근 등 국민 삶 전반을 헌법상 권리로 실현하겠다는 선언이며, 기술 역시 그 일부로 포함된다. 국가는 이제 기술 기반 삶까지 책임지는 방향으로 거버넌스를 전환해야 한다. 기존 복지제도가 ‘일할 수 있어야 지원받는다’는 전제에 기반했다면, AI 기본사회는 ‘기술이 노동의 구조 자체를 바꾸는 시대’를 전제로 한다. 탈락자를 보조하는 정책이 아니라, 누구도 배제되지 않는 디지털 기반 안전망이 핵심이다. AI는 선택이 아니라 생존의 조건이며, 국민의 존엄을 지탱하는 사회적 인프라다. 그러나 기술 인프라만으로는 기본사회가 실현되지 않는다. AI 기본사회는 기술, 제도, 참여라는 세 축 위에 세워져야 한다. 첫째, 기술의 축으로는 공공이 주도하는 AI 인프라가 필요하다. 누구나 접근할 수 있는 국민 AI 비서, 지역 기반 디지털 도움센터, 공공데이터를 기반으로 작동하는 RAG 시스템 등이 핵심이다. 특정 기업에 의존하지 않고, 개방형 모델과 공공데이터의 결합으로 모두의 AI를 실현해야 한다. 공공데이터는 국민의 것이며, 그것을 통해 제공되는 서비스 역시 공공이어야 한다. 둘째, 제도의 축으로는 ‘AI 기본권 헌장’ 제정과 ‘기본사회위원회’ 설치가 요구된다. AI 접근권, 이용권, 설명요구권, 포용권 등 새로운 사회권을 법제화하고, 이를 실행할 전담 기구를 통해 지속가능한 정책체계를 구축해야 한다. 이 위원회는 소득, 돌봄, 교육, 주거 등 복지 각 분야의 정책을 AI 시대에 맞게 재조정하는 역할을 맡는다. 셋째, 참여의 축으로는 기술 통제를 기술자에게만 맡기지 않는 참여형 AI 거버넌스가 필요하다. 시민, 기술자, 법률가, 정책가가 함께 참여하는 AI 거버넌스 체계를 구축해야 한다. 공공 알고리즘의 투명성, 영향평가, 사전 인증 및 사후 모니터링 제도를 통해 기술의 공공성과 책임성을 확보해야 한다. 기술 민주주의는 선언이 아니라 구조화된 참여 설계로 가능하다. AI는 인간의 삶을 돕는 도구여야 한다. 경쟁을 위한 기술이 아니라, 존엄한 삶을 위한 기술이 되어야 한다. 기술이 인간을 대체하는 사회가 아니라, 사람을 중심에 두고 기술이 주변을 채우는 사회가 바로 AI 기본사회다. 기술복지(tech-welfare)는 단순한 효율의 문제가 아니다. AI는 교육, 건강, 노동 등 인간다운 삶의 전 영역을 지지하는 공공 기반이 되어야 한다. 단절 없는 돌봄, 개인화된 교육, 데이터 기반 복지는 AI 없이는 실현되기 어렵다. 따라서 AI 기본권은 선택이 아닌 새로운 사회권으로 제도화되어야 한다. 지금은 기술 중심이 아니라 사람 중심의 AI 기본사회로 나아가야 할 때다. 기술이 진보할수록 우리는 그 기술이 누구를 위한 것인지를 더 날카롭게 물어야 한다. AI 기본사회는 그러한 질문에서 출발한 사회 비전이며, ‘모두의 AI’는 그것을 구현하기 위한 실천 전략이다. AI가 갖는 가치는 기술만을 의미하는 것이 아니라, 보편적으로 누려야 할 국민의 권리이기도 하다.
    2025.05.25 12:03:56
    AI기본사회는 새로운 ‘사회계약’이다
  • AI 웨이브
    인공지능(AI)은 산업과 경제를 넘어 교육, 복지, 노동, 행정 등 사회 전반에 깊숙이 스며들고 있다. 동시에 AI는 점점 더 인간의 외양과 감각, 행동을 모사하는 휴머노이드 로봇의 형태로 구현되며, 기술과 인간 사이의 경계가 흐려지고 있다. 기술은 사람을 닮아가고 있지만, 그 과정에서 인간의 존엄과 사회적 불평등이라는 오래된 문제가 새로운 형태로 드러나고 있다. AI는 본질적으로 기술이지만, 이제는 인간 삶의 조건을 구성하는 핵심 사회 인프라로 간주되어야 한다. 그러나 이러한 기술이 모든 국민에게 평등하게 주어지고 있지는 않다. 고령자, 저소득층, 장애인, 농어촌 주민 등 디지털 소외계층은 AI 기반 사회로의 이행 과정에서 구조적으로 배제되고 있다. 기술의 진보가 오히려 새로운 불평등을 만들어내는 상황에서, 우리는 기술보다 먼저 사회적 계약의 내용과 방식부터 다시 써야 한다. ‘모두의 AI’는 이러한 문제의식에서 출발한 정책 비전이다. 이를 실현하기 위한 주요 정책 과제는 다음과 같다. 첫째, AI 접근권, 이용권, 설명요구권, 차별금지권 등을 포함한 ‘AI 기본권 헌장’을 제정하고, 이를 법제도 전반에 반영해야 한다. 이는 디지털 시대의 새로운 사회권 체계를 구축하는 핵심이다. 둘째, ‘국민 AI 비서’와 같은 공공 AI 플랫폼을 구축해 복잡한 공공서비스를 통합 제공하고, 국민 누구나 쉽게 사용할 수 있는 개방형 디지털 복지 체계를 조성해야 한다. 셋째, 디지털 소외계층을 위한 AI 바우처 제도와 지역 기반 디지털 도움센터를 운영하여 기술격차를 완화해야 한다. 넷째, AI 시대에 필요한 역량을 국민이 갖출 수 있도록 생애주기별 AI 리터러시 교육을 제도화하고, 이를 평생학습 체계에 편입시켜야 한다. 다섯째, AI로 인한 기술 실업 문제에 대응하기 위해 주 4일제 도입 등 노동시간의 재구조화를 포함한 새로운 사회 안전망 전략이 필요하다. 이는 생산성 향상으로 확보된 잉여 시간을 삶의 질 향상으로 전환하는 사회적 분배 방식이다. 여섯째, 이러한 변화를 지속 가능하게 뒷받침할 수 있도록 시민, 기술자, 법률가, 산업계 등이 함께 참여하는 참여형 AI 기본사회 거버넌스 체계를 수립해야 한다. 기술의 통제는 기술자만의 권한이 아니라 사회 전체의 권리이기 때문이다. 이와 함께, AI가 점차 인간의 감정과 판단을 흉내 내는 휴머노이드 로봇으로 구현되고 있는 오늘날, 기술이 인간을 대체하거나 우위에 놓이는 상황에 대한 윤리적·법적 대응 또한 긴요하다. 기술은 사람을 모방할 수 있어도 인간 존재의 의미를 대신할 수는 없다. 기술이 인간을 대체하는 것이 아니라, 오히려 인간다움을 더욱 분명히 드러내는 계기가 되어야 하며, 정치와 제도는 그 방향을 설정해야 한다. 기존의 사회계약은 노동 중심의 산업사회를 전제로 한 것이었다. 시민은 일하고 세금을 내며 국가에 참여했고, 국가는 그 대가로 복지와 보호를 제공했다. 그러나 AI가 인간의 노동을 재구성하고, 기술과 데이터가 새로운 부의 원천이 되는 시대에는 이 계약이 더 이상 유효하지 않다. 우리는 지금, ‘AI 중심의 지능정보사회’에 맞는 새로운 사회계약을 다시 써야 할 시간에 서 있다. 이러한 사회계약의 재구성이 실질적인 정책으로 구현되기 위해서는, 분배와 성장이 균형을 이루는 구조가 전제되어야 한다. ‘모두의 AI’는 분배의 비전이지만, 그 실현은 지속가능한 성장의 기반 위에서만 가능하다. 공공은 디지털 기술에 대한 투자와 인프라를 확충하고, 민간은 혁신을 주도할 수 있는 생태계를 조성해야 한다. 공공 LLM, 개방형 API, AI 바우처와 같은 정책은 민간 기업의 기술 진입을 유도하고, 기술 확산이 곧 생산성 향상과 신산업 창출로 이어지는 선순환 구조를 만들어야 한다. 무엇보다, 분배는 성장 없이 가능하지 않고, 성장은 모두가 참여할 수 있는 공정한 기술 기반에서만 지속될 수 있다. 기술 기반의 공공 혁신과 민간 생태계의 균형 있는 선순환이 구축될 때, AI로 창출된 부가 사회 전체로 환류되는 구조를 실현할 수 있다. 지속가능한 성장은 포용적 분배의 전제이다. 이것이 바로 ‘모두의 AI’가 지향하는 가치이며, 기술과 인간의 공존을 위한 새로운 사회계약의 실질적 내용이다.
    2025.05.16 13:47:41
    ‘모두의 AI’를 위한 길
  • AI 웨이브
    대한민국에서 검찰개혁은 미완이다. 권력기관 개혁을 이야기할 때마다 검찰이 우선적으로 거론되었지만, 그 실상은 절반에 불과하다. 검찰은 수사와 기소권을 가진 한 축이지만, 그 결과를 판단하는 법원 역시 사법권력의 또 다른 축이다. 검찰만 변화한다고 해서, 사법 구조 전체가 새롭게 세워지는 것은 아니다. 바로 이 지점에서 최근 이재명 더불어민주당 후보를 둘러싼 대법원의 유죄 취지 파기환송 결정을 바라볼 필요가 있다. 민주당은 무죄를 기대했지만, 이는 지나치게 나이브했다. 현실은 그렇게 단순하지 않다. 만약 검찰개혁이 실질적으로 이뤄진다면, 그 다음 개혁의 방향은 어디로 향할까. 법원이다. 검찰 권력이 줄어들면, 사법부 권력에 대한 문제 제기는 자연스러운 수순이 된다. 판결은 정치적 이해관계와 무관해야 한다는 이상론은 누구나 동의하지만, 현실에서 법원이 권력기관의 일부로 작동해온 역사적 경험은 무시할 수 없다. 대한민국의 사법부는 오랜 기간 동안 정권의 변화에 맞춰 온건하게, 때로는 은밀하게 권력의 흐름에 편승해왔다. 이 상황에서 법원이 개혁의 칼날이 자신을 향할 가능성을 모른 척 할 수 있을까. 법원은 검찰개혁 이후 ‘개혁의 다음 타깃’이 될 것을 누구보다 명확히 인식하고 있다. 그리고 자신을 방어하기 위한 움직임을 정치적, 제도적 차원에서 가동하기 시작했다. 이재명 후보 사건은 그런 긴장 관계 속에서 발생한 것이다. 이번 대법원의 파기환송은 단순한 법리 검토의 결과로만 해석할 수 없다. 사법부가 자신들의 기존 권력을 방어하는 첫 신호로 읽어야 한다. 민주당은 무죄를 기대했지만, 이는 대한민국 사법권력의 구조를 냉정히 바라보지 못한 순진한 희망에 불과했다. 정치는 현실을 직시하는 능력이다. 이재명 후보 개인의 문제가 아니라, 구조의 문제였던 것이다. 대한민국의 권력기관 개혁은 이제 2막을 맞고 있다. 검찰개혁이 미완이라면, 법원개혁이 기다리고 있다. 법원은 이를 본능적으로 감지하고 있고, 따라서 자연스럽게 반발한다. 진정한 사법개혁을 원한다면, 이제는 법원이라는 성역을 직시해야 한다. 그리고 여기에서 우리는 더 과감한 대안을 생각해야 한다. 인간 판사의 한계와 권력적 이해로부터 벗어나기 위해, 일정한 범위에서는 인공지능(AI) 판사의 도입을 적극 검토해야 한다. 이미 세계 여러 나라에서 소액사건이나 반복적 사건의 경우, AI를 통한 예측적 판결이 실험되고 있다. AI 판사는 인간과 달리 정치적 이해관계에 좌우되지 않고, 동일한 법률 기준에 따라 일관된 판단을 내릴 수 있다. 물론 최종 판단은 인간이 해야겠지만, 사법절차의 공정성과 정당성을 강화하는 데 AI는 중요한 역할을 할 수 있다. 사법의 신뢰를 다시 세우기 위해서는 단순한 제도 수정을 넘어, 기술을 활용한 구조적 혁신이 필요하다. 법원개혁은 인간 판사의 권위를 보호하는 것이 아니라, 국민의 사법 신뢰를 회복하는 데 목적이 있어야 한다. 이제는 법조 엘리트의 폐쇄적 성역을 깨고, AI라는 새로운 도구를 통해 보다 투명하고 공정한 사법체계를 고민해야 할 때다.
    2025.05.06 10:11:36
    사법절차 정의를 위한 AI
  • AI 웨이브
    노인복지관의 풍경을 그려본다. 스마트폰을 꺼내 AI 챗봇으로 건강 상담을 받으며 웃음을 터뜨리는 어르신들과 정작 컴퓨터 전원 버튼조차 낯설어하는 분들이 공존하는 풍경은 역설적이었다. “AI가 뭔지는 잘 모르겠지만, 삶이 훨씬 편리해진 건 확실해요.” 누군가가 말했지만, 그 편리가 모두에게 돌아가지 않는 현실은 분명한 문제다. AI는 이제 ‘선택의 기술’이 아니다. 교육, 의료, 복지, 고용·금융 심사 등 우리 일상의 구석구석을 바꾸고 있다. 그러나 기술 혜택을 누리는 사람과 그렇지 못한 사람 사이의 간극은 내내 커져만 간다. AI 활용 능력이 곧 생존 능력이고, 디지털 리터러시는 존엄의 문제로 전환되고 있는 것이다. 그럼에도 현행 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 AI 발전법)은 산업 진흥과 규제 완화에만 골몰하고 있다. 더군다나, 지금 법은 1년여간 유예되어 2026년 시행 예정이다. 기업 지원, 연구개발 촉진, 신시장 창출 등 성장 전략은 촘촘해 보이지만, AI로 인한 차별·편향·사생활 침해에 대응할 장치는 찾아보기 어렵다. 이재명 더불어민주당 대선 후보가 제안한 ‘모두의 AI’를 뒷받침하기 위한 ‘AI 기본권’은 바로 이 지점에서 출발한다. AI 기본권의 내용은 첫째, AI 접근권이다. 국가는 모든 국민에게 AI 서비스·교육·인프라에 균등히 접근할 기회를 보장해야 한다. 도서관·복지관 등 공공장소를 ‘AI 교육 거점’으로 삼고, 온라인·오프라인 AI 리터러시 강좌를 무료로 제공해야 한다. 둘째, AI 공정성과 설명권이다. 자동화된 결정의 영향 요인과 알고리즘 핵심 논리를 누구나 이해할 수 있는 언어와 시각자료로 설명받을 권리를 법에 명시해야 한다. 셋째, AI 고른 혜택이다. AI로 인한 과실을 누구나 공정하게 배분되어야 한다. 개인의 데이터가 제공되었다면 그에 대한 보상이 이루어져야 한다. 이 후보가 추진했던 ‘경기도 데이터 배당’은 이러한 정치철학이 담겨진 것이다. 이처럼 실질적 권리로서 AI 기본권을 법률에 새겨야만, 기술 발전의 과실이 소수에게만 돌아가지 않는다. AI가 그리는 세상은 법과 제도가 일관되게 뒷받침할 것이기 때문이다. 국민의 기본권으로서 AI 기본권의 보장 없이 무분별한 산업 성장만을 추구하는 사회는 지속 가능하지 않다. AI 기본권은 곧 ‘AI 기본사회’라는 더 큰 비전으로 이어진다. AI 기본사회란 일부 계층이 아닌 모두가 AI 혜택을 체감하는 포용적 사회를 뜻한다. 교육 격차 해소를 위해 초·중·고 교육 과정에 AI 리터러시 과목을 도입하고, 지방·도서벽지에도 동등한 교육 기회를 제공한다. 디지털 복지 강화를 위해 취약 계층 대상 AI 건강 모니터링·맞춤형 복지 서비스를 구축하되, 개인정보 보호 장치를 철저히 마련한다. 공공서비스 혁신 차원에서 AI 도입 시 시범사업·사전영향평가·국민 의견 수렴 절차를 의무화한다. 이를 현실로 만들려면, 법제와 거버넌스를 전면 개편해야 한다. 우선, 현행 AI 발전법은 문제의 정의도 제대로 되어 있지 않다. AI라는 글로벌 시장에서 우리나라가 나아가야 할 산업성장을 위한 가치도, 국민의 AI 기본권에 대한 가치도 담겨있지 않다. AI와 입법을 위한 문제정의가 처음부터 제대로 되어있지 않았다. 지금 하위법령 작업중이나 이 또한 이해관계에 휩쓸리고 있다. 입법과정에서 문제점을 지적하고 방안을 제시한 사람은 시행령 작업에 배제된 것으로 보인다. 이처럼, AI 기본법과 시행령 제정 과정에서 있을 수 없는 일들이 벌어지고 있다. 제대로 입법이 이루어져야 한다. 현행 AI 발전법은 ‘AI 산업법’으로 개정하여 기술개발과 혁신을 전담토록 한다. 기업 지원·데이터 시장 활성화·규제 완화는 이 법에서 다루는 것이 맞다. 산업진흥과는 별개로, AI 기본권과 AI 기본사회를 구성하는 핵심 내용은 ‘AI 기본법’을 제정하여 구체화해야 한다. 법이 바뀌면, 제도를 운영할 거버넌스도 함께 바뀌어야 한다. AI 기본권을 구체화하고 AI 거버넌스로서 현재 산업 중심으로 짜인 ‘국가AI위원회’를 ‘AI기본사회위원회’로 확장 개편하는 것이다. 위원회는 산업영역에 한정하지 않고 사회영역까지 포괄하고, 정책의 심의·조정 권한 및 예산권까지 갖는 위원회로 성격을 변모시킬 필요가 있다. 이를 위해, 개인정보보호위원회, 공정거래위원회, 방송통신위원회 등 관련 위원회의 역할과 거버넌스를 재조정할 필요가 있다. 기술 발전과 함께, 그 기술을 공정하고 안전하게 사용할 수 있어야 한다. 새 정부는 AI 기본권과 AI 진흥이라는 두 마리 토끼를 잡아야 한다. AI는 생활, 교육, 산업, 문화, 상거래 등 모든 영역에서 기본 인프라가 되고 있다. 그렇기 때문에 부처별로 AI를 추진하는 것은 바람직하지 않다. 대통령 소속으로 ‘AI 국가전략위원회’를 두고 글로벌 ‘AI TOP 3’를 위한 전략을 세워야 한다. 그 수장은 행정가나 경영자 출신이 아닌 AI 기술 전문가여야 한다. 이를 위해서라도, AI 기본법은 특정 부처의 특정 과를 위한 ‘과법’이 아닌 대한국인의 ‘모두의 법’이 되어야 한다. 대한민국의 AI는 기업이나 국민 모두의 AI가 되어야하기 때문이다.
    2025.04.28 17:17:16
    AI 기본권 없이 AI 성장은 없다
  • AI 웨이브
    저작권법은 창작자의 권리를 보호하는 동시에 공정한 이용을 보장함으로써, 사회적 이익과 문화·산업 발전의 균형을 도모한다. 그러나 AI 기술의 발전으로 대량의 데이터 활용이 필수적이 되면서, 저작권법과 데이터 윤리 사이의 충돌이 심화하고 있다. 기계학습을 위한 데이터의 확보를 위해 텍스트·데이터 마이닝(TDM)을 입법화하거나 또는 실제 소송에 적용되고 있다. AI 모델 구축 과정에서 방대한 데이터를 이용하면서 저작권법이 어떻게 적용될 것인가에 대한 논쟁이 지속되고 있다. 학습 데이터에 적용될 수 있는 범위에 대한 명확한 기준이 요구된다. 데이터 윤리는 AI 모델의 학습과 결과물의 공정성을 보장하는 중요한 요소로 작용하지만, 윤리적 고려가 법적 규제와 어떻게 조화를 이루어야 하는지는 여전히 불확실하다. TDM 규정을 두고 있는 나라는 공정이용 규정을 두고 있지 않기 때문에 입법화하고 있는 것도 사실이다. 지난해 독일 지방법원에서는 저작권법에 근거하여 학습데이터의 TDM에 대한 무죄판단을 내리기도 했다. 인공지능 학습을 위한 데이터 수집 과정에서 저작권법과 데이터 윤리는 밀접하게 연결된다. 빅데이터 처리와 인공지능 학습 과정에서는 데이터의 복제, 분석 등이 필수적으로 발생하며, 이를 무분별하게 활용할 경우 저작권법 위반 행위가 될 가능성도 있다. 우리 저작권법은 TDM 규정을 두고 있지 않고, 공정이용 규정만 두고 있다. 특히, TDM의 특성상 불특정하게 수집된 데이터 안에 저작물이나 개인정보가 포함될 수 있어 관련 법과 충돌할 가능성이 높다. 이는 단순한 법적 문제를 넘어 데이터 수집의 윤리성, 프라이버시 보호, 그리고 창작자의 권리 존중과 같은 윤리적 문제와도 연결된다. 데이터 수집에서 접근에 제한된 표지(robots.txt)의 강제성이 없는 경우, 이에 대한 접근여부는 저작권법이 아닌 윤리적인 고려를 통해서 판단하여야 할 사항이기도 하다. 나아가 이러한 행위유형을 공정이용으로 볼 수 있는지 여부이다. 공정이용은 법적인 근거를 갖지만, 일반조항이 갖는 성격상 명확한 기준을 제시하는 것은 아니다. 대략적인 방향을 제시하지만, 법원은 이를 바탕으로 최종적인 결론을 내릴 수 있다는 점에서 해석론의 확장이지, 권리창설로 보기는 어렵다. 이에 대해 법원이 권리를 창설하는 것으로 오해할 수도 있을 것이다. AI 윤리나 데이터 윤리가 저작권법에 지나치게 개입할 필요는 없겠지만, 윤리적 고민이 법의 해석과 향후 인간이 아닌 저작자의 등장에 영향을 미칠 가능성은 높다. 다만, 지나친 윤리의 법화(法化)는 지양되어야 한다. 기술 변화에 적응하기 위해서는 법의 규제적 속성보다는 윤리적 논의가 합리적이다. 다만, 그 논의 방향은 윤리를 배제하는 것이 아니라 법과 함께 균형 있게 고려해야 한다. 데이터 윤리와 저작권법은 모두 기술혁신과 개인의 권리 보호 사이의 균형을 추구한다. 생성형 AI의 학습을 위한 데이터셋이 인터넷에 공개된 정보를 크롤링해 제작되는 과정에서, 이용 허락 조건에 맞지 않게 이용할 경우 저작권 침해나 데이터 윤리로부터 자유로울 수 없다. 그렇기 때문에 AI 기술 발전이라는 사회적 가치와 창작자의 권리 보호라는 가치 사이의 윤리적 균형점을 찾아야 한다. AI와 관련하여 저작권법과 데이터 윤리는 전통적인 저작권법의 해석과 적용이라는 법적 가치만이 아닌 기술적으로 유연하게 상황을 바라보아야 한다. AI는 사회적 합의를 포함한 윤리적인 고려까지도 필요로 하는 상황이다. 저작권법과 윤리의 관계는 법적인 가치판단만이 아닌 사회적, 공익적 여부라는 비교형량을 통해 결론에 이르러야 한다. AI 모델의 고도화를 위해서는 지속적인 데이터가 공급되어야 한다. 수집된 데이터의 오남용으로 인한 특정 집단에 대한 편견과 차별, 불평등 심화와 같은 다양한 사회적 이슈가 제기되고 있다. 그렇기 때문에 데이터의 중요성과 이에 따른 윤리적, 법적 책임을 강조하는 것이다. 데이터 윤리가 확립될 경우, AI 시스템에 대한 신뢰를 확보할 수 있다. 이는 데이터의 수집 및 이용 과정에서 관련 법을 준수하는 것이 필수적임을 의미한다. 법적 규정을 준수하는 데이터 활용 방식은 AI 개발 기업과 서비스 제공자가 장기적으로 법적 분쟁을 예방하는 데 기여할 수 있으며, 이용자의 신뢰를 얻는 기반이 된다. 데이터의 윤리적 이용은 데이터의 질적 가치를 높이는 효과를 가져올 수 있으며, 데이터 처리 과정에서 적절한 정제 과정을 거치게 함으로써 윤리적 문제를 최소화할 수 있다. 특히, 데이터 편향성 문제를 해결하는 데 기여할 수 있다. AI 모델이 편향된 데이터를 학습하면 알고리즘이 편향된 결과를 내놓을 가능성이 크며, 이는 사회적 불평등을 심화하는 결과로 이어질 수 있기 때문이다. 데이터 편향 문제를 해결하기 위한 방안으로는 가치중립적인 키워드와 변수를 설정하여 보다 공정한 데이터 선별과 이용이 가능하도록 하는 접근이 있다. 또한, AI 모델이 학습하는 데이터의 다양성을 확보하여 편향성을 줄이는 방법도 고려해야 한다. 예를 들어, 성별, 연령, 국적 등 다양한 인구통계학적 특성을 반영한 데이터 세트를 구축하는 것이 바람직하다. AI 모델이 설명 가능성(explainability)을 갖추도록 연구하는 것도 데이터 윤리 실현의 중요한 방향이 될 수 있다. 몇 년전부터 ‘머신 언러닝(machine unlearning)’에 대한 연구가 이루어지고 있다. 언러닝은 AI 모델에 학습된 데이터를 제거하는 것이다. 실상 문제되는 생성물이 반복되지 않도록 관련 데이터에 대한 ‘기억’을 지우는 것이다. 필터링은 원천적인 삭제가 아니기 때문에 우회하는 탈옥(jail break)을 통해 또다시 문제되는 생성물을 만들어 낼 수 있기 때문이다. 데이터 윤리를 보장하기 위해서는 법적 규제와 함께 정책적 대응도 중요하다. AI 개발 기업이 데이터 윤리를 준수하도록 유도하기 위해 자율규제 모델을 도입할 수도 있으며, 정부 차원의 데이터 윤리 가이드라인을 강화하는 방안도 고려할 수 있다. 데이터 편향성이 사회적 차별을 고착화하거나 그러한 가능성이 높은 경우, 해당 알고리즘을 개발·운영하는 기업에 대한 강력한 규제가 필요할 것이다. 반면, 의도적이지 않은 데이터 편향에 대해서는 기술적·정책적 유연성을 유지하면서 개선 방안을 마련하는 것이 중요하다. AI 모델의 공정성과 신뢰성을 확보하기 위해서는 다양한 데이터를 학습하도록 하는 것이 필수적이다. 특정 집단이나 특정 속성만을 반영한 데이터로 AI를 훈련할 경우, 모델이 갖는 편향성은 더욱 심화될 수밖에 없다. 따라서, 다양한 관점과 경험을 반영하는 데이터 세트를 구축하는 것이 필요하며, 데이터 접근성과 품질을 동시에 고려한 법적·윤리적 기준을 마련해야 한다. 이러한 조치를 통해 AI 기술 발전과 저작권법의 조화를 이루고, 기술혁신과 사회적 가치를 동시에 실현할 수 있는 기반을 마련할 수 있을 것이다.
    2025.03.26 09:59:33
    저작권과 데이터 윤리
  • AI 웨이브
    16세기 조선, 일본은 조선을 침략하기 전에 다양한 방식으로 조선의 지도를 확보했다. 왜관에 거주하는 상인, 사신, 밀정 등을 활용해 정보를 수집했고, 이는 조선에 대한 전략적 우위를 확보하는 데 기여했다. 반면, 조선은 명과의 협공을 위해 지도와 해도를 적극 활용했다. 역사는 이를 통해 지도가 단순한 지형 정보가 아니라 국가의 전략적 자산임을 보여준다. 21세기, 지도는 국가 안보뿐만 아니라 경제와 기술 경쟁에서도 중요한 역할을 한다. 특히, 디지털 경제에서 지도데이터는 단순한 공간정보가 아니라 자율주행, 스마트시티, 인공지능(AI) 기반 공간 분석 등의 핵심 인프라가 된다. 그렇기에 구글의 정부에 대한 1대 5000 정밀지도 반출 요청은 단순한 서비스 개선의 문제가 아니라, 국가의 디지털 주권(data sovereignty)과 직결된 사안이다. 디지털 경제에서는 데이터가 곧 시장의 핵심 요소다. 플랫폼 기업들은 소비자의 심리를 파악하고, 문화적 흐름을 분석하며, 이를 바탕으로 서비스를 설계한다. 지도데이터는 단순한 지형 정보가 아니라, 인간의 이동 패턴, 상업적 활동, 도시 구조 등 광범위한 데이터를 포함한다. 현대 사회에서 지도는 단순한 지형의 축소판이 아니라, 국가와 개인의 삶을 담고 있는 디지털 기반 인프라이다. 조선 말, 김정호의 대동여지도는 단순한 지도가 아니라, 각 지방의 생활상을 담고 있는 정보지 역할을 했다. 현재 네이버 지도 역시 단순한 길찾기 도구가 아니라, 지역 정보와 생활 패턴을 반영하는 또 다른 디지털 플랫폼이다. 우리나라의 지도는 한국인이 가장 잘 만들 수 있는 이유도 여기에 있다. 지리적 정보뿐만 아니라, 문화적 맥락까지 고려해야 하기 때문이다. 2016년, 구글은 우리 정부에 1대 25000 축척이 아닌, 오차범위 3m 이내의 1대 5000 축척 지도를 요청했다. 더욱 정밀한 위치 기반 서비스를 제공하기 위함이었다. 정부는 국가 안보를 이유로 반출을 허용하지 않았다. 군사시설 보호뿐만 아니라, 세금으로 제작된 공공데이터를 해외 기업이 무상으로 이용하는 것이 타당한가에 대한 논의도 있었다. 절충안으로 군사·보안시설을 보안 처리한 후 반출을 승인하는 방안이 제시되었지만, 구글은 이를 거부했다. 지도데이터의 수정은 기업 방침에 맞지 않으며, 글로벌 클라우드 운영 방식상 국내에 별도 서버를 두지 않는다는 점을 이유로 들었다. 이후에도 구글을 포함한 다른 플랫폼사업자들도 지도 반출 요청을 지속해 왔으며, 2025년 다시 논란이 불거지고 있다. 구글에 지도 반출을 허용할 경우, 국내 기업과 산업 전반에 미치는 영향도 고려해야 한다. 네이버, 카카오 등 국내 지도 서비스 제공업체들은 자체적인 데이터 구축과 유지보수에 많은 비용을 투자하고 있다. 구글이 우리나라의 정밀지도를 확보하면, 글로벌 플랫폼을 기반으로 더욱 정교한 서비스를 제공할 수 있게 되고, 이는 국내 기업들이 시장에서 경쟁력을 잃는 결과를 초래할 수 있다. 또한, 정밀지도는 자율주행차, 스마트시티, 드론 산업 등에서 필수적인 데이터이다. 통신사를 비롯하여, 현대차 등 국내 제조업체들은 독자적인 지도데이터를 구축하기 위해 노력하고 있지만, 구글이 지도데이터를 확보할 경우 국내 기업들의 연구개발(R&D) 의존도가 커질 가능성이 크다. 이는 장기적으로 국내 산업 생태계에 부정적인 영향을 미칠 수 있다. 정부가 정밀지도의 반출을 허용하면, 정부는 자국 내 주요 지리정보를 효과적으로 통제하기 어려워질 수 있다. 공공 데이터를 활용한 서비스는 국가가 일정 부분 통제할 수 있어야 하지만, 글로벌 기업에 대한 정부의 정책 조정력이 약화될 수 있다. 무엇보다, 구글의 정밀지도 요구는 단순한 지도 서비스 개선을 위한 것이 아니다. 지도데이터를 활용해 자율주행, AI 기반 공간정보 분석, 스마트시티 등의 다양한 서비스로 확장하려는 목적이 크다. 이는 결국 메타버스 및 가상현실 사업과도 연결될 것이다. 이러한 사업적 필요에 따라 지도 반출을 지속적으로 요구하는 것이다. 만약, 정부가 이를 허용한다면 다른 글로벌 기업들도 동일한 요구를 할 가능성이 크다. 이는 국내 지도 인프라를 기반으로 운영되는 다양한 기업들의 생존까지 위협할 수 있다. 단순히 플랫폼 사업자뿐만 아니라, 지도를 사용해야 하는 현대자동차와 같은 국내 제조업체에 미치는 영향도 무시할 수 없다. 정밀지도 데이터는 단순한 정보가 아니라, 국가의 디지털 주권과 산업 경쟁력, 안보가 걸린 중요한 자산이다. 주요 국가들이 자국의 지도데이터를 전략적으로 보호하고 있는 만큼, 정부도 신중한 접근이 필요하다. 구글의 지도 반출 요구는 산업적·경제적·안보적 측면에서 종합적으로 검토되어야 하며, 장기적인 국가 경쟁력을 고려한 대응이 이루어져야 할 것이다. 디지털 시대에 데이터 통제권은 매우 중요한 이슈이며, 정부가 지도 데이터를 보호하는 것은 당연한 책무이기 때문이다.
    2025.03.10 16:16:27
    구글의 지도반출 요청과 데이터 주권
1 2
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널