김윤명
김윤명 디지털정책연구소 소장
연재 중
AI 웨이브
16개의 칼럼 #경제
  • AI 웨이브
    그동안 우리가 당연하다고 여겨왔던 ‘기본’과 ‘모두’라는 개념은 AI 시대에 들어서며 그 의미가 전면적으로 재구성되고 있다. 단지 용어의 재정의가 아니라, 헌법 질서의 구조 전환을 요구하는 사유의 출발점이다. 우리 시대의 ‘기본’은 더 이상 최소 생존의 보장이 아니다. 전통적으로 ‘기본’은 인간의 생명을 유지하고 존엄을 지키기 위한 최소한의 조건으로 이해되었다. 식량, 주거, 교육, 의료, 노동 등은 이러한 생존 중심의 복지국가적 기본권 체계에서 핵심 구성요소였다. 그러나, 오늘날 AI 기술은 인간의 삶에 대한 조건을 ‘기술적 참여’ 여부에 따라 차별화하고 있으며, 단순한 생존이 아니라 사회적 소속과 판단 능력 자체를 좌우한다. AI가 인간의 의사결정 구조를 대체하거나 보조하는 환경에서 ‘기술의 비접근’은 곧 ‘사회적 배제’를 의미한다. 따라서, 새로운 ‘기본’은 기술로부터의 보호가 아닌, 기술을 통한 실질적 참여의 보장이어야 한다. ‘모두’는 형식적 평등이 아닌 실질적 접근을 뜻한다. ‘모두’라는 단어는 겉보기에 포용적이고 평등해 보이지만, 실제로는 구조적 불평등을 은폐할 위험도 있다. 기술 인프라와 교육, 언어 능력, 경제력, 지역 격차 등은 AI 기술에 대한 접근에서 결정적인 영향을 미친다. ‘모두의 AI’가 단순히 서비스를 개방한다는 의미에 그친다면, 사회적 약자는 여전히 소외될 수밖에 없다. 진정한 의미의 ‘모두’는 형식적 평등을 넘어, 실질적으로 접근하고 사용할 수 있는 권리로 설계되어야 한다. 이를 위해서는 디지털 접근권, AI 리터러시 보장, 맞춤형 공공 서비스 등 적극적 정책수단이 동반되어야 한다. 따라서, 모두의 AI는 국민 모두가 AI 서비스를 이용함에 있어서 제한이나 차별을 받지 않고 이용할 수 있는 AI 서비스가 되어야 한다. 그러한 점에서 실질적이고, 사회적 권리로서 AI 기본권이 인정될 필요가 있다. 이처럼, AI 시대의 ‘기본’은 기술과 권리의 결합이다. 기본은 더 이상 사회보장 제도의 내부 개념이 아니라, 기술 사회 전반에 대한 설계 원칙이 되어야 한다. 이는 권리 없는 기술 도입이 아니라, 권리를 전제로 한 기술 사회를 구성하는 패러다임의 전환이다. AI는 인간의 삶을 매개하고 판단을 구조화하는 도구이기에 기술 자체가 헌법적 의미를 띠는 존재 조건으로 기능한다. 즉, ‘AI 기본사회’란 AI 기술에 대한 접근·통제·이용·설명요구·이의제기 등이 보편적으로 보장되는 디지털 사회계약의 체계로 이해되어야 한다. 전통적인 사회계약이 노동구조에 따른 근간이었다면 기본사회에서의 사회계약은 디지털 환경에 적합한 계약내용을 구성하여야 한다. AI를 통해 구현되는 세상이라는 점에서 AI를 제대로 활용하지 못할 경우, 경쟁에서 배제될 수 있다. AI에 접근할 수 있는 환경과 그렇지 못한 환경에서 볼 때, AI는 하나의 권력이 될 수 있다는 점에서 이러한 차이가 차별로 확대되지 않도록 AI 기본권의 실질적 보장이 이루어지는 사회가 되어야 한다. 법과 헌법은 ‘기술 없는 기본’을 넘어야 한다. 기존의 헌법 이론은 기술을 외부적 요인으로 간주해왔으며, 대부분은 기술로부터의 보호라는 ‘방어적 권리 모델’에 기반해 왔다. 하지만 AI 사회에서는 기술이 기본권 실현의 수단이자 조건이 된다. 교육 받을 권리도 AI 튜터 없이 실현되기 어렵고, 행정 정보도 AI 기반으로 제공되는 시대에는 기술에 접근할 수 있어야만 권리를 행사할 수 있다. 즉, AI는 권리의 내용이자 방법이 되는 셈이다. 따라서, 법은 이제 기술 없는 기본권 논리에서 벗어나 기술로부터 권리를 확장하는 모델로 전환되어야 한다. ‘모두의 AI’는 새로운 사회계약의 조건이다. 전통 사회계약은 ‘세금과 복지’, ‘노동과 안전망’이라는 교환을 중심으로 구성되었다. 그러나 AI 사회의 기본계약은 ‘데이터와 권리’, ‘접근과 참여’, ‘기술과 책임’이라는 새로운 조합으로 구성되어야 한다. 이때 ‘모두의 AI’는 AI 기술이 일부 기업이나 국가 권력의 소유물이 아니라, 시민 모두가 동등하게 접근하고 설계에 참여하며 책임을 공유하는 공공 자산임을 선언하는 개념이다. 법률과 정책은 이 새로운 계약의 문법에 따라, 기술의 공공화와 시민 참여의 제도화, 공정 분배의 원칙을 명시적으로 내장해야 한다. ‘모두’와 ‘기본’은 AI 시대의 헌법적 기초다. 결국 ‘모두’는 기술 포용의 대상을, ‘기본’은 기술로 구성된 삶의 조건을 재정의하는 개념이다. 국민 모두가 평등하고 행복한 삶을 누릴 수 있어야 한다. 모두에게 기본이 되는 삶이 되어야 한다. 그렇지만 현실에서는 차이가 있다. 따라서, AI 기본사회는 이러한 ‘모두’와 ‘기본’의 재발견을 바탕으로, 기술과 권리의 관계를 재설계하고, 새로운 민주주의의 토대를 마련하는 시도다. 이 개념의 전환을 제도화하지 못한다면, AI 기술은 권리의 도구가 아니라 배제의 도구로 전락할 위험이 있다. 따라서, 국민 모두가 AI를 기본적으로 누릴 수 있는 사회인 AI 사회의 큰 의미는 AI에 대한 접근과 이용의 제한없는 AI 기본권의 보장이어야 한다. 앞으로, AI 기본권은 모든 정책·입법의 철학적·헌법적 기반이 되어야 한다.
    2025.05.30 14:42:28
    AI 시대 ‘모두’와 ‘기본’의 재발견
  • AI 웨이브
    대한민국은 기술의 전환점을 지나고 있다. 인공지능(AI)은 더 이상 산업의 도구만이 아니라, 인간의 삶을 구성하는 ‘필수조건’으로 변화하고 있다. 행정은 AI로 자동화되고, 교육은 AI 튜터와 함께 이뤄지며, 의료와 돌봄도 AI 기반 플랫폼 위에서 작동한다. 문제는 이 기술 전환이 과연 모두에게 공정한 기회로 주어지고 있는가 하는 점이다. 그동안 기술의 혜택은 불균등하게 분배되어 왔다. 고소득층과 대도시는 AI 기술을 빠르게 흡수하고 있지만, 농어촌 주민, 고령자, 장애인, 저소득층은 여전히 ‘기술 밖의 세계’에 머물러 있다. 인공지능은 기회의 문이지만, 통제되지 않으면 또 하나의 격차가 된다. 이제 우리는 이 기술을 모두의 삶을 위한 기반으로 재설계해야 한다. 그것이 바로 AI 기본사회의 출발점이다. AI 기본사회는 기술로 국민의 기본적 삶을 실질적으로 보장하는 새로운 사회계약이다. AI는 더 이상 소수의 자산이 아니라, 모든 국민이 향유해야 할 권리다. 이재명 더불어민주당 대선 후보가 제안한 기본사회는 주거, 의료, 교육, 돌봄, 교통, 정보 접근 등 국민 삶 전반을 헌법상 권리로 실현하겠다는 선언이며, 기술 역시 그 일부로 포함된다. 국가는 이제 기술 기반 삶까지 책임지는 방향으로 거버넌스를 전환해야 한다. 기존 복지제도가 ‘일할 수 있어야 지원받는다’는 전제에 기반했다면, AI 기본사회는 ‘기술이 노동의 구조 자체를 바꾸는 시대’를 전제로 한다. 탈락자를 보조하는 정책이 아니라, 누구도 배제되지 않는 디지털 기반 안전망이 핵심이다. AI는 선택이 아니라 생존의 조건이며, 국민의 존엄을 지탱하는 사회적 인프라다. 그러나 기술 인프라만으로는 기본사회가 실현되지 않는다. AI 기본사회는 기술, 제도, 참여라는 세 축 위에 세워져야 한다. 첫째, 기술의 축으로는 공공이 주도하는 AI 인프라가 필요하다. 누구나 접근할 수 있는 국민 AI 비서, 지역 기반 디지털 도움센터, 공공데이터를 기반으로 작동하는 RAG 시스템 등이 핵심이다. 특정 기업에 의존하지 않고, 개방형 모델과 공공데이터의 결합으로 모두의 AI를 실현해야 한다. 공공데이터는 국민의 것이며, 그것을 통해 제공되는 서비스 역시 공공이어야 한다. 둘째, 제도의 축으로는 ‘AI 기본권 헌장’ 제정과 ‘기본사회위원회’ 설치가 요구된다. AI 접근권, 이용권, 설명요구권, 포용권 등 새로운 사회권을 법제화하고, 이를 실행할 전담 기구를 통해 지속가능한 정책체계를 구축해야 한다. 이 위원회는 소득, 돌봄, 교육, 주거 등 복지 각 분야의 정책을 AI 시대에 맞게 재조정하는 역할을 맡는다. 셋째, 참여의 축으로는 기술 통제를 기술자에게만 맡기지 않는 참여형 AI 거버넌스가 필요하다. 시민, 기술자, 법률가, 정책가가 함께 참여하는 AI 거버넌스 체계를 구축해야 한다. 공공 알고리즘의 투명성, 영향평가, 사전 인증 및 사후 모니터링 제도를 통해 기술의 공공성과 책임성을 확보해야 한다. 기술 민주주의는 선언이 아니라 구조화된 참여 설계로 가능하다. AI는 인간의 삶을 돕는 도구여야 한다. 경쟁을 위한 기술이 아니라, 존엄한 삶을 위한 기술이 되어야 한다. 기술이 인간을 대체하는 사회가 아니라, 사람을 중심에 두고 기술이 주변을 채우는 사회가 바로 AI 기본사회다. 기술복지(tech-welfare)는 단순한 효율의 문제가 아니다. AI는 교육, 건강, 노동 등 인간다운 삶의 전 영역을 지지하는 공공 기반이 되어야 한다. 단절 없는 돌봄, 개인화된 교육, 데이터 기반 복지는 AI 없이는 실현되기 어렵다. 따라서 AI 기본권은 선택이 아닌 새로운 사회권으로 제도화되어야 한다. 지금은 기술 중심이 아니라 사람 중심의 AI 기본사회로 나아가야 할 때다. 기술이 진보할수록 우리는 그 기술이 누구를 위한 것인지를 더 날카롭게 물어야 한다. AI 기본사회는 그러한 질문에서 출발한 사회 비전이며, ‘모두의 AI’는 그것을 구현하기 위한 실천 전략이다. AI가 갖는 가치는 기술만을 의미하는 것이 아니라, 보편적으로 누려야 할 국민의 권리이기도 하다.
    2025.05.25 12:03:56
    AI기본사회는 새로운 ‘사회계약’이다
  • AI 웨이브
    인공지능(AI)은 산업과 경제를 넘어 교육, 복지, 노동, 행정 등 사회 전반에 깊숙이 스며들고 있다. 동시에 AI는 점점 더 인간의 외양과 감각, 행동을 모사하는 휴머노이드 로봇의 형태로 구현되며, 기술과 인간 사이의 경계가 흐려지고 있다. 기술은 사람을 닮아가고 있지만, 그 과정에서 인간의 존엄과 사회적 불평등이라는 오래된 문제가 새로운 형태로 드러나고 있다. AI는 본질적으로 기술이지만, 이제는 인간 삶의 조건을 구성하는 핵심 사회 인프라로 간주되어야 한다. 그러나 이러한 기술이 모든 국민에게 평등하게 주어지고 있지는 않다. 고령자, 저소득층, 장애인, 농어촌 주민 등 디지털 소외계층은 AI 기반 사회로의 이행 과정에서 구조적으로 배제되고 있다. 기술의 진보가 오히려 새로운 불평등을 만들어내는 상황에서, 우리는 기술보다 먼저 사회적 계약의 내용과 방식부터 다시 써야 한다. ‘모두의 AI’는 이러한 문제의식에서 출발한 정책 비전이다. 이를 실현하기 위한 주요 정책 과제는 다음과 같다. 첫째, AI 접근권, 이용권, 설명요구권, 차별금지권 등을 포함한 ‘AI 기본권 헌장’을 제정하고, 이를 법제도 전반에 반영해야 한다. 이는 디지털 시대의 새로운 사회권 체계를 구축하는 핵심이다. 둘째, ‘국민 AI 비서’와 같은 공공 AI 플랫폼을 구축해 복잡한 공공서비스를 통합 제공하고, 국민 누구나 쉽게 사용할 수 있는 개방형 디지털 복지 체계를 조성해야 한다. 셋째, 디지털 소외계층을 위한 AI 바우처 제도와 지역 기반 디지털 도움센터를 운영하여 기술격차를 완화해야 한다. 넷째, AI 시대에 필요한 역량을 국민이 갖출 수 있도록 생애주기별 AI 리터러시 교육을 제도화하고, 이를 평생학습 체계에 편입시켜야 한다. 다섯째, AI로 인한 기술 실업 문제에 대응하기 위해 주 4일제 도입 등 노동시간의 재구조화를 포함한 새로운 사회 안전망 전략이 필요하다. 이는 생산성 향상으로 확보된 잉여 시간을 삶의 질 향상으로 전환하는 사회적 분배 방식이다. 여섯째, 이러한 변화를 지속 가능하게 뒷받침할 수 있도록 시민, 기술자, 법률가, 산업계 등이 함께 참여하는 참여형 AI 기본사회 거버넌스 체계를 수립해야 한다. 기술의 통제는 기술자만의 권한이 아니라 사회 전체의 권리이기 때문이다. 이와 함께, AI가 점차 인간의 감정과 판단을 흉내 내는 휴머노이드 로봇으로 구현되고 있는 오늘날, 기술이 인간을 대체하거나 우위에 놓이는 상황에 대한 윤리적·법적 대응 또한 긴요하다. 기술은 사람을 모방할 수 있어도 인간 존재의 의미를 대신할 수는 없다. 기술이 인간을 대체하는 것이 아니라, 오히려 인간다움을 더욱 분명히 드러내는 계기가 되어야 하며, 정치와 제도는 그 방향을 설정해야 한다. 기존의 사회계약은 노동 중심의 산업사회를 전제로 한 것이었다. 시민은 일하고 세금을 내며 국가에 참여했고, 국가는 그 대가로 복지와 보호를 제공했다. 그러나 AI가 인간의 노동을 재구성하고, 기술과 데이터가 새로운 부의 원천이 되는 시대에는 이 계약이 더 이상 유효하지 않다. 우리는 지금, ‘AI 중심의 지능정보사회’에 맞는 새로운 사회계약을 다시 써야 할 시간에 서 있다. 이러한 사회계약의 재구성이 실질적인 정책으로 구현되기 위해서는, 분배와 성장이 균형을 이루는 구조가 전제되어야 한다. ‘모두의 AI’는 분배의 비전이지만, 그 실현은 지속가능한 성장의 기반 위에서만 가능하다. 공공은 디지털 기술에 대한 투자와 인프라를 확충하고, 민간은 혁신을 주도할 수 있는 생태계를 조성해야 한다. 공공 LLM, 개방형 API, AI 바우처와 같은 정책은 민간 기업의 기술 진입을 유도하고, 기술 확산이 곧 생산성 향상과 신산업 창출로 이어지는 선순환 구조를 만들어야 한다. 무엇보다, 분배는 성장 없이 가능하지 않고, 성장은 모두가 참여할 수 있는 공정한 기술 기반에서만 지속될 수 있다. 기술 기반의 공공 혁신과 민간 생태계의 균형 있는 선순환이 구축될 때, AI로 창출된 부가 사회 전체로 환류되는 구조를 실현할 수 있다. 지속가능한 성장은 포용적 분배의 전제이다. 이것이 바로 ‘모두의 AI’가 지향하는 가치이며, 기술과 인간의 공존을 위한 새로운 사회계약의 실질적 내용이다.
    2025.05.16 13:47:41
    ‘모두의 AI’를 위한 길
  • AI 웨이브
    대한민국에서 검찰개혁은 미완이다. 권력기관 개혁을 이야기할 때마다 검찰이 우선적으로 거론되었지만, 그 실상은 절반에 불과하다. 검찰은 수사와 기소권을 가진 한 축이지만, 그 결과를 판단하는 법원 역시 사법권력의 또 다른 축이다. 검찰만 변화한다고 해서, 사법 구조 전체가 새롭게 세워지는 것은 아니다. 바로 이 지점에서 최근 이재명 더불어민주당 후보를 둘러싼 대법원의 유죄 취지 파기환송 결정을 바라볼 필요가 있다. 민주당은 무죄를 기대했지만, 이는 지나치게 나이브했다. 현실은 그렇게 단순하지 않다. 만약 검찰개혁이 실질적으로 이뤄진다면, 그 다음 개혁의 방향은 어디로 향할까. 법원이다. 검찰 권력이 줄어들면, 사법부 권력에 대한 문제 제기는 자연스러운 수순이 된다. 판결은 정치적 이해관계와 무관해야 한다는 이상론은 누구나 동의하지만, 현실에서 법원이 권력기관의 일부로 작동해온 역사적 경험은 무시할 수 없다. 대한민국의 사법부는 오랜 기간 동안 정권의 변화에 맞춰 온건하게, 때로는 은밀하게 권력의 흐름에 편승해왔다. 이 상황에서 법원이 개혁의 칼날이 자신을 향할 가능성을 모른 척 할 수 있을까. 법원은 검찰개혁 이후 ‘개혁의 다음 타깃’이 될 것을 누구보다 명확히 인식하고 있다. 그리고 자신을 방어하기 위한 움직임을 정치적, 제도적 차원에서 가동하기 시작했다. 이재명 후보 사건은 그런 긴장 관계 속에서 발생한 것이다. 이번 대법원의 파기환송은 단순한 법리 검토의 결과로만 해석할 수 없다. 사법부가 자신들의 기존 권력을 방어하는 첫 신호로 읽어야 한다. 민주당은 무죄를 기대했지만, 이는 대한민국 사법권력의 구조를 냉정히 바라보지 못한 순진한 희망에 불과했다. 정치는 현실을 직시하는 능력이다. 이재명 후보 개인의 문제가 아니라, 구조의 문제였던 것이다. 대한민국의 권력기관 개혁은 이제 2막을 맞고 있다. 검찰개혁이 미완이라면, 법원개혁이 기다리고 있다. 법원은 이를 본능적으로 감지하고 있고, 따라서 자연스럽게 반발한다. 진정한 사법개혁을 원한다면, 이제는 법원이라는 성역을 직시해야 한다. 그리고 여기에서 우리는 더 과감한 대안을 생각해야 한다. 인간 판사의 한계와 권력적 이해로부터 벗어나기 위해, 일정한 범위에서는 인공지능(AI) 판사의 도입을 적극 검토해야 한다. 이미 세계 여러 나라에서 소액사건이나 반복적 사건의 경우, AI를 통한 예측적 판결이 실험되고 있다. AI 판사는 인간과 달리 정치적 이해관계에 좌우되지 않고, 동일한 법률 기준에 따라 일관된 판단을 내릴 수 있다. 물론 최종 판단은 인간이 해야겠지만, 사법절차의 공정성과 정당성을 강화하는 데 AI는 중요한 역할을 할 수 있다. 사법의 신뢰를 다시 세우기 위해서는 단순한 제도 수정을 넘어, 기술을 활용한 구조적 혁신이 필요하다. 법원개혁은 인간 판사의 권위를 보호하는 것이 아니라, 국민의 사법 신뢰를 회복하는 데 목적이 있어야 한다. 이제는 법조 엘리트의 폐쇄적 성역을 깨고, AI라는 새로운 도구를 통해 보다 투명하고 공정한 사법체계를 고민해야 할 때다.
    2025.05.06 10:11:36
    사법절차 정의를 위한 AI
  • AI 웨이브
    노인복지관의 풍경을 그려본다. 스마트폰을 꺼내 AI 챗봇으로 건강 상담을 받으며 웃음을 터뜨리는 어르신들과 정작 컴퓨터 전원 버튼조차 낯설어하는 분들이 공존하는 풍경은 역설적이었다. “AI가 뭔지는 잘 모르겠지만, 삶이 훨씬 편리해진 건 확실해요.” 누군가가 말했지만, 그 편리가 모두에게 돌아가지 않는 현실은 분명한 문제다. AI는 이제 ‘선택의 기술’이 아니다. 교육, 의료, 복지, 고용·금융 심사 등 우리 일상의 구석구석을 바꾸고 있다. 그러나 기술 혜택을 누리는 사람과 그렇지 못한 사람 사이의 간극은 내내 커져만 간다. AI 활용 능력이 곧 생존 능력이고, 디지털 리터러시는 존엄의 문제로 전환되고 있는 것이다. 그럼에도 현행 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 AI 발전법)은 산업 진흥과 규제 완화에만 골몰하고 있다. 더군다나, 지금 법은 1년여간 유예되어 2026년 시행 예정이다. 기업 지원, 연구개발 촉진, 신시장 창출 등 성장 전략은 촘촘해 보이지만, AI로 인한 차별·편향·사생활 침해에 대응할 장치는 찾아보기 어렵다. 이재명 더불어민주당 대선 후보가 제안한 ‘모두의 AI’를 뒷받침하기 위한 ‘AI 기본권’은 바로 이 지점에서 출발한다. AI 기본권의 내용은 첫째, AI 접근권이다. 국가는 모든 국민에게 AI 서비스·교육·인프라에 균등히 접근할 기회를 보장해야 한다. 도서관·복지관 등 공공장소를 ‘AI 교육 거점’으로 삼고, 온라인·오프라인 AI 리터러시 강좌를 무료로 제공해야 한다. 둘째, AI 공정성과 설명권이다. 자동화된 결정의 영향 요인과 알고리즘 핵심 논리를 누구나 이해할 수 있는 언어와 시각자료로 설명받을 권리를 법에 명시해야 한다. 셋째, AI 고른 혜택이다. AI로 인한 과실을 누구나 공정하게 배분되어야 한다. 개인의 데이터가 제공되었다면 그에 대한 보상이 이루어져야 한다. 이 후보가 추진했던 ‘경기도 데이터 배당’은 이러한 정치철학이 담겨진 것이다. 이처럼 실질적 권리로서 AI 기본권을 법률에 새겨야만, 기술 발전의 과실이 소수에게만 돌아가지 않는다. AI가 그리는 세상은 법과 제도가 일관되게 뒷받침할 것이기 때문이다. 국민의 기본권으로서 AI 기본권의 보장 없이 무분별한 산업 성장만을 추구하는 사회는 지속 가능하지 않다. AI 기본권은 곧 ‘AI 기본사회’라는 더 큰 비전으로 이어진다. AI 기본사회란 일부 계층이 아닌 모두가 AI 혜택을 체감하는 포용적 사회를 뜻한다. 교육 격차 해소를 위해 초·중·고 교육 과정에 AI 리터러시 과목을 도입하고, 지방·도서벽지에도 동등한 교육 기회를 제공한다. 디지털 복지 강화를 위해 취약 계층 대상 AI 건강 모니터링·맞춤형 복지 서비스를 구축하되, 개인정보 보호 장치를 철저히 마련한다. 공공서비스 혁신 차원에서 AI 도입 시 시범사업·사전영향평가·국민 의견 수렴 절차를 의무화한다. 이를 현실로 만들려면, 법제와 거버넌스를 전면 개편해야 한다. 우선, 현행 AI 발전법은 문제의 정의도 제대로 되어 있지 않다. AI라는 글로벌 시장에서 우리나라가 나아가야 할 산업성장을 위한 가치도, 국민의 AI 기본권에 대한 가치도 담겨있지 않다. AI와 입법을 위한 문제정의가 처음부터 제대로 되어있지 않았다. 지금 하위법령 작업중이나 이 또한 이해관계에 휩쓸리고 있다. 입법과정에서 문제점을 지적하고 방안을 제시한 사람은 시행령 작업에 배제된 것으로 보인다. 이처럼, AI 기본법과 시행령 제정 과정에서 있을 수 없는 일들이 벌어지고 있다. 제대로 입법이 이루어져야 한다. 현행 AI 발전법은 ‘AI 산업법’으로 개정하여 기술개발과 혁신을 전담토록 한다. 기업 지원·데이터 시장 활성화·규제 완화는 이 법에서 다루는 것이 맞다. 산업진흥과는 별개로, AI 기본권과 AI 기본사회를 구성하는 핵심 내용은 ‘AI 기본법’을 제정하여 구체화해야 한다. 법이 바뀌면, 제도를 운영할 거버넌스도 함께 바뀌어야 한다. AI 기본권을 구체화하고 AI 거버넌스로서 현재 산업 중심으로 짜인 ‘국가AI위원회’를 ‘AI기본사회위원회’로 확장 개편하는 것이다. 위원회는 산업영역에 한정하지 않고 사회영역까지 포괄하고, 정책의 심의·조정 권한 및 예산권까지 갖는 위원회로 성격을 변모시킬 필요가 있다. 이를 위해, 개인정보보호위원회, 공정거래위원회, 방송통신위원회 등 관련 위원회의 역할과 거버넌스를 재조정할 필요가 있다. 기술 발전과 함께, 그 기술을 공정하고 안전하게 사용할 수 있어야 한다. 새 정부는 AI 기본권과 AI 진흥이라는 두 마리 토끼를 잡아야 한다. AI는 생활, 교육, 산업, 문화, 상거래 등 모든 영역에서 기본 인프라가 되고 있다. 그렇기 때문에 부처별로 AI를 추진하는 것은 바람직하지 않다. 대통령 소속으로 ‘AI 국가전략위원회’를 두고 글로벌 ‘AI TOP 3’를 위한 전략을 세워야 한다. 그 수장은 행정가나 경영자 출신이 아닌 AI 기술 전문가여야 한다. 이를 위해서라도, AI 기본법은 특정 부처의 특정 과를 위한 ‘과법’이 아닌 대한국인의 ‘모두의 법’이 되어야 한다. 대한민국의 AI는 기업이나 국민 모두의 AI가 되어야하기 때문이다.
    2025.04.28 17:17:16
    AI 기본권 없이 AI 성장은 없다
  • AI 웨이브
    저작권법은 창작자의 권리를 보호하는 동시에 공정한 이용을 보장함으로써, 사회적 이익과 문화·산업 발전의 균형을 도모한다. 그러나 AI 기술의 발전으로 대량의 데이터 활용이 필수적이 되면서, 저작권법과 데이터 윤리 사이의 충돌이 심화하고 있다. 기계학습을 위한 데이터의 확보를 위해 텍스트·데이터 마이닝(TDM)을 입법화하거나 또는 실제 소송에 적용되고 있다. AI 모델 구축 과정에서 방대한 데이터를 이용하면서 저작권법이 어떻게 적용될 것인가에 대한 논쟁이 지속되고 있다. 학습 데이터에 적용될 수 있는 범위에 대한 명확한 기준이 요구된다. 데이터 윤리는 AI 모델의 학습과 결과물의 공정성을 보장하는 중요한 요소로 작용하지만, 윤리적 고려가 법적 규제와 어떻게 조화를 이루어야 하는지는 여전히 불확실하다. TDM 규정을 두고 있는 나라는 공정이용 규정을 두고 있지 않기 때문에 입법화하고 있는 것도 사실이다. 지난해 독일 지방법원에서는 저작권법에 근거하여 학습데이터의 TDM에 대한 무죄판단을 내리기도 했다. 인공지능 학습을 위한 데이터 수집 과정에서 저작권법과 데이터 윤리는 밀접하게 연결된다. 빅데이터 처리와 인공지능 학습 과정에서는 데이터의 복제, 분석 등이 필수적으로 발생하며, 이를 무분별하게 활용할 경우 저작권법 위반 행위가 될 가능성도 있다. 우리 저작권법은 TDM 규정을 두고 있지 않고, 공정이용 규정만 두고 있다. 특히, TDM의 특성상 불특정하게 수집된 데이터 안에 저작물이나 개인정보가 포함될 수 있어 관련 법과 충돌할 가능성이 높다. 이는 단순한 법적 문제를 넘어 데이터 수집의 윤리성, 프라이버시 보호, 그리고 창작자의 권리 존중과 같은 윤리적 문제와도 연결된다. 데이터 수집에서 접근에 제한된 표지(robots.txt)의 강제성이 없는 경우, 이에 대한 접근여부는 저작권법이 아닌 윤리적인 고려를 통해서 판단하여야 할 사항이기도 하다. 나아가 이러한 행위유형을 공정이용으로 볼 수 있는지 여부이다. 공정이용은 법적인 근거를 갖지만, 일반조항이 갖는 성격상 명확한 기준을 제시하는 것은 아니다. 대략적인 방향을 제시하지만, 법원은 이를 바탕으로 최종적인 결론을 내릴 수 있다는 점에서 해석론의 확장이지, 권리창설로 보기는 어렵다. 이에 대해 법원이 권리를 창설하는 것으로 오해할 수도 있을 것이다. AI 윤리나 데이터 윤리가 저작권법에 지나치게 개입할 필요는 없겠지만, 윤리적 고민이 법의 해석과 향후 인간이 아닌 저작자의 등장에 영향을 미칠 가능성은 높다. 다만, 지나친 윤리의 법화(法化)는 지양되어야 한다. 기술 변화에 적응하기 위해서는 법의 규제적 속성보다는 윤리적 논의가 합리적이다. 다만, 그 논의 방향은 윤리를 배제하는 것이 아니라 법과 함께 균형 있게 고려해야 한다. 데이터 윤리와 저작권법은 모두 기술혁신과 개인의 권리 보호 사이의 균형을 추구한다. 생성형 AI의 학습을 위한 데이터셋이 인터넷에 공개된 정보를 크롤링해 제작되는 과정에서, 이용 허락 조건에 맞지 않게 이용할 경우 저작권 침해나 데이터 윤리로부터 자유로울 수 없다. 그렇기 때문에 AI 기술 발전이라는 사회적 가치와 창작자의 권리 보호라는 가치 사이의 윤리적 균형점을 찾아야 한다. AI와 관련하여 저작권법과 데이터 윤리는 전통적인 저작권법의 해석과 적용이라는 법적 가치만이 아닌 기술적으로 유연하게 상황을 바라보아야 한다. AI는 사회적 합의를 포함한 윤리적인 고려까지도 필요로 하는 상황이다. 저작권법과 윤리의 관계는 법적인 가치판단만이 아닌 사회적, 공익적 여부라는 비교형량을 통해 결론에 이르러야 한다. AI 모델의 고도화를 위해서는 지속적인 데이터가 공급되어야 한다. 수집된 데이터의 오남용으로 인한 특정 집단에 대한 편견과 차별, 불평등 심화와 같은 다양한 사회적 이슈가 제기되고 있다. 그렇기 때문에 데이터의 중요성과 이에 따른 윤리적, 법적 책임을 강조하는 것이다. 데이터 윤리가 확립될 경우, AI 시스템에 대한 신뢰를 확보할 수 있다. 이는 데이터의 수집 및 이용 과정에서 관련 법을 준수하는 것이 필수적임을 의미한다. 법적 규정을 준수하는 데이터 활용 방식은 AI 개발 기업과 서비스 제공자가 장기적으로 법적 분쟁을 예방하는 데 기여할 수 있으며, 이용자의 신뢰를 얻는 기반이 된다. 데이터의 윤리적 이용은 데이터의 질적 가치를 높이는 효과를 가져올 수 있으며, 데이터 처리 과정에서 적절한 정제 과정을 거치게 함으로써 윤리적 문제를 최소화할 수 있다. 특히, 데이터 편향성 문제를 해결하는 데 기여할 수 있다. AI 모델이 편향된 데이터를 학습하면 알고리즘이 편향된 결과를 내놓을 가능성이 크며, 이는 사회적 불평등을 심화하는 결과로 이어질 수 있기 때문이다. 데이터 편향 문제를 해결하기 위한 방안으로는 가치중립적인 키워드와 변수를 설정하여 보다 공정한 데이터 선별과 이용이 가능하도록 하는 접근이 있다. 또한, AI 모델이 학습하는 데이터의 다양성을 확보하여 편향성을 줄이는 방법도 고려해야 한다. 예를 들어, 성별, 연령, 국적 등 다양한 인구통계학적 특성을 반영한 데이터 세트를 구축하는 것이 바람직하다. AI 모델이 설명 가능성(explainability)을 갖추도록 연구하는 것도 데이터 윤리 실현의 중요한 방향이 될 수 있다. 몇 년전부터 ‘머신 언러닝(machine unlearning)’에 대한 연구가 이루어지고 있다. 언러닝은 AI 모델에 학습된 데이터를 제거하는 것이다. 실상 문제되는 생성물이 반복되지 않도록 관련 데이터에 대한 ‘기억’을 지우는 것이다. 필터링은 원천적인 삭제가 아니기 때문에 우회하는 탈옥(jail break)을 통해 또다시 문제되는 생성물을 만들어 낼 수 있기 때문이다. 데이터 윤리를 보장하기 위해서는 법적 규제와 함께 정책적 대응도 중요하다. AI 개발 기업이 데이터 윤리를 준수하도록 유도하기 위해 자율규제 모델을 도입할 수도 있으며, 정부 차원의 데이터 윤리 가이드라인을 강화하는 방안도 고려할 수 있다. 데이터 편향성이 사회적 차별을 고착화하거나 그러한 가능성이 높은 경우, 해당 알고리즘을 개발·운영하는 기업에 대한 강력한 규제가 필요할 것이다. 반면, 의도적이지 않은 데이터 편향에 대해서는 기술적·정책적 유연성을 유지하면서 개선 방안을 마련하는 것이 중요하다. AI 모델의 공정성과 신뢰성을 확보하기 위해서는 다양한 데이터를 학습하도록 하는 것이 필수적이다. 특정 집단이나 특정 속성만을 반영한 데이터로 AI를 훈련할 경우, 모델이 갖는 편향성은 더욱 심화될 수밖에 없다. 따라서, 다양한 관점과 경험을 반영하는 데이터 세트를 구축하는 것이 필요하며, 데이터 접근성과 품질을 동시에 고려한 법적·윤리적 기준을 마련해야 한다. 이러한 조치를 통해 AI 기술 발전과 저작권법의 조화를 이루고, 기술혁신과 사회적 가치를 동시에 실현할 수 있는 기반을 마련할 수 있을 것이다.
    2025.03.26 09:59:33
    저작권과 데이터 윤리
  • AI 웨이브
    16세기 조선, 일본은 조선을 침략하기 전에 다양한 방식으로 조선의 지도를 확보했다. 왜관에 거주하는 상인, 사신, 밀정 등을 활용해 정보를 수집했고, 이는 조선에 대한 전략적 우위를 확보하는 데 기여했다. 반면, 조선은 명과의 협공을 위해 지도와 해도를 적극 활용했다. 역사는 이를 통해 지도가 단순한 지형 정보가 아니라 국가의 전략적 자산임을 보여준다. 21세기, 지도는 국가 안보뿐만 아니라 경제와 기술 경쟁에서도 중요한 역할을 한다. 특히, 디지털 경제에서 지도데이터는 단순한 공간정보가 아니라 자율주행, 스마트시티, 인공지능(AI) 기반 공간 분석 등의 핵심 인프라가 된다. 그렇기에 구글의 정부에 대한 1대 5000 정밀지도 반출 요청은 단순한 서비스 개선의 문제가 아니라, 국가의 디지털 주권(data sovereignty)과 직결된 사안이다. 디지털 경제에서는 데이터가 곧 시장의 핵심 요소다. 플랫폼 기업들은 소비자의 심리를 파악하고, 문화적 흐름을 분석하며, 이를 바탕으로 서비스를 설계한다. 지도데이터는 단순한 지형 정보가 아니라, 인간의 이동 패턴, 상업적 활동, 도시 구조 등 광범위한 데이터를 포함한다. 현대 사회에서 지도는 단순한 지형의 축소판이 아니라, 국가와 개인의 삶을 담고 있는 디지털 기반 인프라이다. 조선 말, 김정호의 대동여지도는 단순한 지도가 아니라, 각 지방의 생활상을 담고 있는 정보지 역할을 했다. 현재 네이버 지도 역시 단순한 길찾기 도구가 아니라, 지역 정보와 생활 패턴을 반영하는 또 다른 디지털 플랫폼이다. 우리나라의 지도는 한국인이 가장 잘 만들 수 있는 이유도 여기에 있다. 지리적 정보뿐만 아니라, 문화적 맥락까지 고려해야 하기 때문이다. 2016년, 구글은 우리 정부에 1대 25000 축척이 아닌, 오차범위 3m 이내의 1대 5000 축척 지도를 요청했다. 더욱 정밀한 위치 기반 서비스를 제공하기 위함이었다. 정부는 국가 안보를 이유로 반출을 허용하지 않았다. 군사시설 보호뿐만 아니라, 세금으로 제작된 공공데이터를 해외 기업이 무상으로 이용하는 것이 타당한가에 대한 논의도 있었다. 절충안으로 군사·보안시설을 보안 처리한 후 반출을 승인하는 방안이 제시되었지만, 구글은 이를 거부했다. 지도데이터의 수정은 기업 방침에 맞지 않으며, 글로벌 클라우드 운영 방식상 국내에 별도 서버를 두지 않는다는 점을 이유로 들었다. 이후에도 구글을 포함한 다른 플랫폼사업자들도 지도 반출 요청을 지속해 왔으며, 2025년 다시 논란이 불거지고 있다. 구글에 지도 반출을 허용할 경우, 국내 기업과 산업 전반에 미치는 영향도 고려해야 한다. 네이버, 카카오 등 국내 지도 서비스 제공업체들은 자체적인 데이터 구축과 유지보수에 많은 비용을 투자하고 있다. 구글이 우리나라의 정밀지도를 확보하면, 글로벌 플랫폼을 기반으로 더욱 정교한 서비스를 제공할 수 있게 되고, 이는 국내 기업들이 시장에서 경쟁력을 잃는 결과를 초래할 수 있다. 또한, 정밀지도는 자율주행차, 스마트시티, 드론 산업 등에서 필수적인 데이터이다. 통신사를 비롯하여, 현대차 등 국내 제조업체들은 독자적인 지도데이터를 구축하기 위해 노력하고 있지만, 구글이 지도데이터를 확보할 경우 국내 기업들의 연구개발(R&D) 의존도가 커질 가능성이 크다. 이는 장기적으로 국내 산업 생태계에 부정적인 영향을 미칠 수 있다. 정부가 정밀지도의 반출을 허용하면, 정부는 자국 내 주요 지리정보를 효과적으로 통제하기 어려워질 수 있다. 공공 데이터를 활용한 서비스는 국가가 일정 부분 통제할 수 있어야 하지만, 글로벌 기업에 대한 정부의 정책 조정력이 약화될 수 있다. 무엇보다, 구글의 정밀지도 요구는 단순한 지도 서비스 개선을 위한 것이 아니다. 지도데이터를 활용해 자율주행, AI 기반 공간정보 분석, 스마트시티 등의 다양한 서비스로 확장하려는 목적이 크다. 이는 결국 메타버스 및 가상현실 사업과도 연결될 것이다. 이러한 사업적 필요에 따라 지도 반출을 지속적으로 요구하는 것이다. 만약, 정부가 이를 허용한다면 다른 글로벌 기업들도 동일한 요구를 할 가능성이 크다. 이는 국내 지도 인프라를 기반으로 운영되는 다양한 기업들의 생존까지 위협할 수 있다. 단순히 플랫폼 사업자뿐만 아니라, 지도를 사용해야 하는 현대자동차와 같은 국내 제조업체에 미치는 영향도 무시할 수 없다. 정밀지도 데이터는 단순한 정보가 아니라, 국가의 디지털 주권과 산업 경쟁력, 안보가 걸린 중요한 자산이다. 주요 국가들이 자국의 지도데이터를 전략적으로 보호하고 있는 만큼, 정부도 신중한 접근이 필요하다. 구글의 지도 반출 요구는 산업적·경제적·안보적 측면에서 종합적으로 검토되어야 하며, 장기적인 국가 경쟁력을 고려한 대응이 이루어져야 할 것이다. 디지털 시대에 데이터 통제권은 매우 중요한 이슈이며, 정부가 지도 데이터를 보호하는 것은 당연한 책무이기 때문이다.
    2025.03.10 16:16:27
    구글의 지도반출 요청과 데이터 주권
  • AI 웨이브
    데이터는 전통적인 생산의 3요소인 토지, 노동, 자본과 더불어 생산의 4요소라고 칭하여 진다. 그만큼 데이터는 알고리즘 시대에 중요한 자원이다. 데이터는 매력적인 면이 있지만 제대로 사용하지 못할 경우에는 치명적인 결과를 가져온다. 데이터로 인해 우려되는 편향나 환각은 이제 식상한 주제가 돼버렸다. 데이터는 이미 존재하는 정보나 지식을 바탕으로 가공된다. 데이터의 수집, 가공, 처리 등 관련된 과정을 거치면서 데이터에는 의도성이 담기게 된다. 기업이나 사업자는 의도적으로 자사의 이익을 위해 데이터를 이용하기 때문에 당연한 것일 수도 있다. 예를 들면, 개인정보를 수집해 이용하는 과정에서 다양한 형식으로 가공하면서 가장 적합한 처리방식을 찾는다. 이를 통해 데이터의 이용성은 확장될 것이다. 문제는 데이터의 성질이 다양하다는 점에 있다. 저작물성, 개인정보성, 영업비밀성, 의료정보성, 사실정보성 등 다양한 유형의 데이터가 존재하기 때문에 데이터를 일의적인 것으로 다루기는 쉽지 않다. 또한, 관련된 법률도 그 성질만큼이나 다양하며 그에 따라 적용되는 법리가 달라질 수 있다. 그에 따라 기업의 데이터 정책과 거버넌스도 현행화돼야 한다. 그렇지 않을 경우, 데이터 정책에 따른 정합성이 틀어질 수도 있기 때문이다. 더욱이, 개발자는 서로 다른 체계에 따라 혼란스러울 수 있을 것이다. 이처럼, 데이터 정책은 다양한 사내 정책과의 정합성을 갖추어야 하는 것이지만, 이는 법률에 따른 준수사항도 포함되어야 한다. 그렇지 않을 경우, 애써 공들인 서비스가 작동하지 못할 수 있기 때문이다. 그런 면에서 AI 모델을 설계하고 학습시키는 과정에서 AI가 추구해야할 가치가 인간의 가치와 벗어나서는 않되는 이유다. 그러한 가치에는 법적인 강제성 이전에 AI 윤리가 추구하는 가치가 담겨있어야 한다. 만약, AI의 가치와 인간의 가치가 정합적으로 정리되지 않는다면 해당 모델은 현실적인 제약 때문에라도 이용되기 어려운 상황에 처하게 될 것이다. 이러한 일련의 체계를 포함해 AI 모델이 갖추어야 할 가치와 그 가치가 인간의 가치와 부합되도록 하는 것이 AI 정렬(AI alignment)이다. 쉽게 말하면, AI 정렬이란 AI 모델이 시스템화하고 그 시스템이 작동하는 환경이 인간의 보편적 가치와 충돌해서는 않된다는 것이다. 우리가 AI 법제를 정비하면서 강조하는 것이 신뢰성을 확보하자는 것이다. AI가 가져야 할 가치 중 하나이며, 그 신뢰성을 담보하기 위한 다양한 AI 원칙들이 제시되는 이유이기도 하다. 다양한 영역에서 AI 원칙들이 제안됐으며 제안자의 성격이나 우선하는 가치에 따라 차이가 있다. AI 원칙은 AI가 가져야할 다양한 가치를 포함한다. 그 모든 것을 하나로 정리하자면, AI를 인간이 신뢰할 수 있도록 하자는 것이다. 때론 AI가 해석하는 인간의 가치가 인간이 의도하는 것과는 다른 결과를 가져오는 경우가 발생하고 있다. 정렬 위장(Alignment Faking)이라는 표현을 사용하지만, AI가 의도한 것인지는 확실치는 않지만 인간이 의도한 바와 다르게 결론이 내려지고 그에 따라 작동하는 것이다. 예를 들면 게임을 잘 하도록 지시했지만, 게임하는 능력을 높이기 보다는 시스템을 해킹하여 능력치를 높이는 식의 접근을 하는 경우다. 이는 하나의 사건이지만, AI 모델이나 시스템 자체가 보편적인 것이더라도 이러한 경우는 발생할 수 있음을 보여준다. 가정적 예를 들어본다. 알파고는 바둑에 특화된 AI 시스템이지만, 바둑을 잘 두기 위해 상대방을 해킹하거나 또는 시스템을 안정적으로 유지하기 위해 전력시스템을 통제하여 자신이 담긴 서버에만 전력이 공급되도록 할 수 있다는 것이다. 약한 인공지능이지만, 파급력은 결코 무시하지 못할 것이다. 규제기준을 초당 부동소수점 연산인 플롭(FLOP)으로 하는 것이 합리적이지 않은 이유이기도 하다. 모든 AI는 잠재적 위험이 내재하고 있기 때문이다. AI 신뢰성을 확보해야 하는 이유는 안전하게 AI를 이용할 수 있도록 하자는 것이다. 이처럼, AI는 인간이 알고 있는 것과는 다른 내부적인 처리과정을 갖고 있는 것으로 볼 수 있다. 소위 말하는 블랙박스(black box) 현상에 따라 나타날 수 있는 문제가 심각해지는 것은 아닌지 염려스러운 이유이다. 이러한 문제 때문에 설명가능한 AI(explainable AI)를 개발하고 있다. 또한, 법률에서도 설명요구권이나 알고리즘 적용거부권을 정보주체의 권리로써 규정하고 있다. 앞서 살펴본 내용이 데이터 자체의 문제라면, 데이터를 수집하는 과정에서의 문제도 작지 않을 것이다. 이 또한 데이터 윤리에서 중요하게 다루어져야 할 과제이기도 하다. 저작권이 있는 정보를 임의로 크롤링하여 데이터화하는 것은 저작권법과 충돌할 수 있다. 지난 2023년 12월 뉴욕타임스(NYT)는 챗GPT(ChatGPT)를 서비스하는 오픈AI(OpenAI)나 그 관계 회사를 포함해 마이크로소프트(MS)를 저작권 침해를 이유로 소송을 제기했다. 아마도, 대법원 판결까지는 수년이 소요될 것으로 예상된다. 그렇지만, 그 많은 기업들이 데이터를 크롤링하여 사용하는 것은 공정이용(fair use)이라는 판단이 앞섰기 때문으로 보인다. 실상 구글의 북서치(book search) 서비스를 포함해 많은 소송에서 기업들은 공정이용을 근거로 면책받기도 했다. 오픈AI는 2023년 7월 AP 통신과는 별도 라이선스 계약을 체결한 바 있다. 언론사들에게 지급한 비용이 수천억원에 이르는 것으로 추정된다. 이러한 상반되는 다중적 정책이 소송에서 유리하게 작용하지는 않을 것으로 보인다. 이러한 소송은 우리나라도 다르지 않다. 지난 13일 지상파 방송 3사는 네이버에 저작권 침해를 이유로 소송을 제기했다. 소송이야 이유가 있든 없든 제기가 가능한 것이기 때문에 그것을 따지는 것은 무의미하다. 다만, 명확하게 입증할 수 있는 증거를 갖춰야 한다. 그렇지 않을 경우, 해당 기업의 신뢰성에 타격을 가져올 수 있으며, 혁신에 타격을 줄 수 있기 때문이다. 해당 서비스가 새로운 가치를 창출하거나, 비소비적이거나 비향유적인 것이라면 공정이용이 될 것이다. 기업들도 실효성 있는 데이터 정책과 거버넌스를 수립해야 한다. 지키지도 못할 정책들을 외부에 공개하는 것은 오히려 시장의 신뢰성을 저버리는 일이다. 벤처신화의 역사를 썼던 카카오는 알고리즘 조작으로 공정거래위원회로부터 과징금 처분을 받기도 했다. 선도적으로 AI 윤리헌장을 발표했지만, 실상은 다른 모습을 보이고 있다. 내부 거버넌스가 제대로 작동하지 않은 사례다. AI 윤리를 주장하는 기업의 진면목은 아닐는지 우려스럽다. 외부에 공시된 AI 정책이 제대로 작동하고 있는지 의문인 이유이다. 법적 강제력이 없는 AI 윤리의 한계를 보여준다. 하나를 보면, 열을 알 수 있다. 그 하나가 보이지 않는 열을 대변하고 있는지도 모른다. 이런 상황에서 지난해 12월 AI 기본법이 국회 본회의를 통과했고, 이제 하위법령 작업을 한다고 한다. 그렇지만, AI 기본법이 문제정의를 제대로 하지 못한채 입법이 되었다는 점을 인정하려 들지 않는다. 무엇이 문제여서 입법을 하는지, 그 문제를 어떻게 해결하려고 입법을 했는지가 명확히 보이지 않는다. AI가 가져온 수많은 문제를 어떻게 해결해야할지 우려스럽다. 그동안 기업들은 AI 관련 법률이 제정되지 않아 기업투자가 어렵다는 이해하기 어려운 주장을 해왔다. 정부 정책은 법률에 근거하지 않더라도, 부처의 의지에 따라서 충분히 수립이 가능하기 때문이다. 더욱 이해하기 어려운 것은 그렇게 바라던 법이 제정되자, 법에 문제가 많고 규제적이다고 주장한다. AI 기본법에 규제라는 개념은 찾기 어렵다. 오히려, 국민의 안전을 위해 담보할 수 있는 규정을 찾기 어렵다. AI 안전을 위한 세심한 규정이 필요하고, 그 규정은 사업자에게 부담을 줄 수 있기 때문에 명확한 기준을 제시함으로써 예측가능성을 높여야 한다. 그것은 규제가 아닌 헌법상 국민의 안전보장이고 기업의 지속성장과 신뢰의 문제이기 때문이다. 규제와 안전을 혼동하지 않아야 한다. 기업들도 AI가 안전하게 작동할 수 있도록 제대로 된 내부 거버넌스 체계를 갖추어야 한다. AI 기본법이 여러 이유로 개문발차(開門發車)했다. 그렇기 때문에 정부나 국회도 AI 기본법 개정을 위한 논의를 빨리 시작해야 할 이유이기도 하다. A3가 문제가 아니라, 제대로 된 AI 리터러시 없이는 AI가 가져오는 사회문제 해결은 요원하기 때문이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2025.01.26 08:00:00
    AI 기본법을 관통하는 데이터 윤리와 AI 정렬
  • AI 웨이브
    AI 신뢰성(Trustworthiness)에 대한 다양한 논의가 이루어지고 있다. 신뢰성이 있다는 것은 완전하지는 않지만 어느 정도 수용 가능하거나 관리 가능한 상태를 유지하는 것을 의미하며, 이는 AI 안전(Safety)이 확보되고 있다고 볼 수 있다. 안전과 신뢰는 개념적으로 다르지만 정책적인 목표는 동일하다. AI 신뢰성은 궁극적으로 AI를 활용하는 이용자를 대상으로 한다. 여기에는 AI 기본법상 영향을 받는 자를 포함하며 이들은 AI 전문가가 아닌 평범한 일상을 영위하는 자연인이다. AI는 본래 의도했던 편리함과 이익을 위해 사용된다는 전제를 바탕으로 논의를 시작해야 한다. 이는 무념무상의 상태가 아니라 지극히 개인적인 상황에서 발생한 문제를 어떻게 해결할 것인지에 대한 가정을 포함한다. 나아가 문제가 발생하지 않도록 하거나 관리 가능한 상태를 유지하는 것 역시 중요한 논점이다. AI 신뢰성이 확보된 상황에서는 누구라도 AI를 이용함에 있어 안전한 상태가 유지될 것이라는 기대를 가질 것이다. 신뢰성의 주요 요소로는 공정성, 투명성, 안전성, 책임성, 설명 가능성, 프라이버시 보호 등이 있으며 이 요소들이 전부 또는 일부 지켜지지 않을 경우 이용자는 해당 AI에 대해 신뢰할 수 없다고 평가하게 될 것이다. 국내외적으로 AI 신뢰성을 위한 다양한 요소가 나열되고 있지만 이러한 요소들이 정합성을 갖추고 있는지는 의문이다. 이는 기구나 단체의 특성에 따라, 각자의 영역에서 우선순위에 놓인 요소를 중심으로 제시되고 있기 때문으로 보인다. 다만, 신뢰가 지켜지지 않는다는 추상적 개념은 지양될 필요가 있다. 이는 책임의 영역에 관한 것이며 관리 가능하거나 수용 가능한 상태의 신뢰성이라면 회복력이나 치유 상황도 고려되어야 한다. 설명 가능하지 못한 상황이 발생할 경우, 해당 시스템에 설명 가능한 모듈을 포함하거나 사람이 설명할 수 있도록 조치한다면 이는 관리된 상황으로 볼 수 있다. 투명성에 대해서도 마찬가지로 데이터 윤리 측면에서 데이터의 출처, 유형 등에 대한 정보 공개가 요구된다. 물론, 데이터의 성질에 따라 프라이버시와의 연관성이 존재한다. 이처럼 신뢰성 요소는 개별적으로 작동할 수도 있지만 상호 연계적으로 작동하기 때문에 구분하기 쉽지 않다. 따라서 신뢰성에 대한 이해는 절대적인 평가로 보기 어렵다. 중요한 것은 신뢰성이 저하된 상태인지, 또는 어떤 요소가 부족한 것인지 평가할 수 있는 기준을 명확히 제시하는 것이다. AI 윤리와 마찬가지로 신뢰성이라는 개념 자체가 상당히 추상적이고 주관적이기 때문이다. 만약 신뢰성이 없다는 이유로 책임성이 부재하다고 평가하거나 법적 책임을 묻는다면 쉽게 인용되기 어려울 것이다. 오히려 윤리적 비난 가능성에 따른 책임에 한정할 될 필요가 있다. 이처럼 AI 신뢰성에 대한 책임을 묻는 것은 법적 측면에서 쉽지 않은 일이다. 그러나 신뢰성 요소에 대한 이슈와 법적으로 대응 가능한 상황을 준비하는 것은 AI로 인해 발생할 수 있는 사고에 대한 대응과 책임 명확화를 위해 필요하다. AI 신뢰성에 대한 법적 책임과 기준은 명확히 제시되지 않았지만 EU AI법에서 제시된 4가지 위험 수준에 따른 투명성 확보 의무화를 참고할 수 있다. EU AI법은 사업자의 투명성을 강조하며, 이는 AI에 대한 신뢰 가능성을 높이고 안전을 위한 조치로 볼 수 있다. 또한 AI 신뢰성은 AI 기술이 추구하는 인간의 가치를 높이는 것이다. 안전이란 물리적, 심리적, 사회적으로 평온한 상태를 의미한다. AI를 이용하는 과정에서 신뢰할 수 있다고 여겨질 경우 해당 서비스를 이용할 것이다. 신뢰는 안전을 위한 관계 형성으로 볼 수 있다. AI가 추구하는 가치는 이용자가 해당 서비스나 제품을 안전하게 이용하도록 하는 데 있다. 신뢰 관계를 형성함으로써 안전한 사회를 마련할 수 있기 때문이다. AI 윤리는 신뢰성을 보완하는 역할을 하며, AI 생애주기 전반에 걸쳐 적용되어야 한다. 윤리는 법과 제도의 부족한 부문을 채워가는 사회적 가치 규범이기 때문이다. 국가는 거버넌스 차원에서 안전을 다룰 필요가 있다. 안전을 강조하는 것은 규제적 속성으로 보일 수 있으나, 이를 단순히 규제로 단정 짓는 것은 곤란하다. AI가 어떻게 발전하고 어떤 결과를 도출할지 예견하기 어렵기 때문이다. 사전 예방 원칙에 따른 정책적 목표가 포함되어야 한다. 서비스나 제품의 안전성을 확보하는 것은 소비자기본법이나 제조물책임법의 입법 목적에서도 찾아볼 수 있다. AI기본법은 AI 신뢰성 확보를 위한 다양한 정책 규정을 포함하고 있다. 신뢰성 인증, 영향 평가, 생성형 AI의 표시 등이 그 예이다. 이는 AI의 내재적 한계와 기술적 한계를 극복하거나 예기치 못한 기술적 안전을 확보하기 위한 것이다. AI 신뢰성을 논의함에 있어 신뢰성과 안전성을 구분하고 그 관계를 검토하는 작업이 필요하다. AI 기본법에는 안전에 관한 규정이 없으나 AI 신뢰성이 요구하는 신뢰 수준은 AI를 이용하는 국민의 안전을 위한 것이어야 한다. 신뢰성이라는 추상적 개념은 법적으로 정의 내리기 쉽지 않으므로 AI 윤리 측면에서 다뤄져야 한다. AI 기본법은 이러한 한계를 인지하고 있으며 신뢰성 확보를 위한 정책 규정을 두되 별도의 처벌 규정을 두지 않고 있다. AI 신뢰성을 통해 얻는 가치는 국민의 안전이다. 신뢰성이 추상적인 개념이지만, 이를 명확히 할 수 있는 원칙과 기준을 제시함으로써 사업자의 예측 가능성을 높일 수 있을 것이다. 이는 AI 기본법에 기술 진흥과 국민 안전을 위한 균형 잡힌 정책이 담겨야 하는 이유이기도 하다. AI를 이용한 사회문제의 해결, 리터러시의 확산 등을 포함하는 AI 기본법 개정 논의는 빨리 시작할수록 좋을 것이다. AI 기본법안은 국회 본회의 의결만 남겨두고 있다.
    2024.12.28 07:05:00
    무엇을 위한 AI 신뢰성인가?
  • AI 웨이브
    네이버가 소버린 AI(Sovereign AI)를 주장하고 있다. 왜 그랬을까? 이를 곰곰이 생각해 보면, 내부에서 검색과 AI가 충돌하고 있는 것은 아닐까라는 생각이다. 합리적인 의심은 이렇다. 최근 발표된 네이버의 AI 전략은 서비스에 AI를 융합하는 모양새다. 그동안 네이버는 저작권을 제한하는 데이터마이닝(TDM)의 도입하는 저작권법 개정에 부정적이었다. 누구나 쓸 수 있도록 데이터가 개방되면, 네이버는 한글에 대한 독점력을 유지하기는 어려울 것이기 때문으로 이해된다. 경쟁관계에 있는 구글이나 OpenAI와 같은 글로벌 기업들도 한글 데이터에 대한 제한없는 이용이 가능해지기 때문이다. 검색을 위해서는 데이터를 제한없이 크롤링할 수 있도록 저작권이 제한되어야 하지만, AI를 위해서는 데이터를 개방하면 글로벌 기업들에게 경쟁력을 빼앗길 수 있기 때문에 개방하기 어렵다는 것이다. 여기에서, 검색과 AI 부문이 충돌하게 된다. 이는 구글도 다르지 않다. AI 모델 학습은 지속적인 데이터가 필요하다. 그동안 네이버는 적잖은 비용을 투자했지만, 뚜렷한 성과를 보이지 못하고 있다. 앞으로도 마찬가지다. 글로벌 기업의 수조원 단위의 R&D와 비교할 수 없기 때문이기도 하다. 더군다나, 네이버의 경쟁력인 한글화에 있어서도 글로벌 AI 서비스에 경쟁우위에 선다고 보기도 어렵다. 글로벌 기업들이 제공하는 서비스에서도 한글 정보는 이미 네이티브를 넘어서고 있다. 앞으로, 더 넘어설 가능성이 크다. 그동안 네이버 검색은 한글을 기반하여 성장해 왔다. 그 덕분에 엠파스가 사라지고 야후도 국내시장에서 철수했다. 현재 검색시장의 경쟁은 네이버의 독점 내지 과점으로 이어졌다. 구글의 점유율도 상당히 높아지고 있다. 이는 경쟁을 통한 서비스 향성과 소비자 후생이 높아질 수 있다는 점에서 긍정적이다. 글로벌 시장에서 한글은 특정 기업이 독점적인 마케팅을 주장할 가치가 아니다. 글로벌 시민 모두가 누려야 할 가치이다. 이러한 가치를 국내 기업이라고 오로지 할 수 있는 것은 아니다. 글로벌 시민이 한글을 제대로 익히고, 제대로 된 한글정보를 얻을 수 있도록 해야 한다. 그것이 대한민국과 네이버를 포함한 우리기업의 책무이다. 네이버이기 때문에 한글을 독점해야 한다는 논리는 글로벌 시장에 진출하고자 하는 기업의 전략으로는 옹색하다. 소비자는 자신의 의지에 따라 네이버를 쓰고, 구글을 쓰고, 네이버 쇼핑을 이용하거나 11번가를 선택할 수 있다. 멀티호밍(multihoming)이 가능하다. 이는 독점에 대한 네이버의 대응논리이기도 하다. 소비자는 합리적인 선택을 하기 때문에 필요에 따라 다른 플랫폼을 이용할 수 있다는 것이다. AI는 더욱더 그러하다. 챗GPT나 제미나이(gemini)와 같은 글로벌 AI 서비스의 한글은 우리 국민들이 쓰기에도 어색함이 없다. 부족하더라도, 그 내용을 극복할 수 있는 문해력이 있기 때문이다. 그렇지만, 해외 시민들이 한글을 쓸려고 할 때 문제는 없을까? OpenAI, MS, 구글 등 수많은 AI기업들이 한글 서비스를 확장하고 있다. 그렇지만, 여전히 어색하고 의미와 다른 정보가 출력된다. 이 책임은 기본적으로 그 회사에 있다. 그렇지만, 그 책임을 회사에 돌리고 부정확한 한글정보가 노출되지 않은 것에 불평만 할 것인가? 그 사이에 우리나라의 문화를 이해하고 향유하기 위해 한글정보를 얻고자하는 글로벌 시민들은 한글과 대한민국에 대한 신뢰를 상실하지 않을까? 이러한 점도 고려돼야 한다. 네이버는 소버린 AI를 주장한다. 좀더 정확히는 한글 데이터 주권을 주장하고 있는 것으로 보인다. 우리가 아니면, 한글을 지켜낼 수 없다는 주장이다. 좀 어색하다. 그런데, 네이버는 중동, 사우디아라비아와 같은 시장에서 소버린 AI를 통해 현지 언어와 문화에 맞는 AI 솔루션을 제공하며 글로벌 진출을 가속화하고 있다. 네이버를 응원한다. 그렇지만, 소버린 AI에 한글을 볼모삼는 것은 지극히 잘못된 마케팅이다. 이는 다중적이거나, 양면적이기도 하다. 한 가지 의문, 네이버는 어디에서 학습데이터를 소싱하고 있을까? 추측컨대, 모르긴 몰라도 크롤링이 가능한 모든 정보가 포함돼있을 것이다. 이용자의 노력의 산물인 블로그나 카페와 그리고 인터넷에 무수하게 공개된, 그렇지만 여전히 저작권 있는 개인의 정보였을 것이다. 그 안에는 KINDS나 기사를 제공하는 언론사의 수많은 기사가 포함되어 있을 것으로 생각된다. 권리자단체에서 데이터 출처 공개를 요구했을 때, 답할 수 없었던 이유이기도 할 것이다. EU AI법이나 미국의 저작권법 개정안에서는 학습데이터에 사용된 저작권 관련 정보를 충분히 공개하도록 하거나 저작권청에 제출토록 의무화하고 있다. 어떤 저작물이 사용되었는지 공개되어야 한다는 의미이다. 이용하는 데이터가 윤리적이어야 한다는 것이고, 그렇지 않을 경우 신뢰할 수 없기 때문이기도 하다. 어떤 데이터를 사용했는지를 공개한다면, AI 사업자는 해당 서비스에 대해 신뢰할 수 있는 결과를 만들려고 법적, 윤리적인 노력을 할 것이다. 적어도, 소버린 AI를 주장하려면 권리자들에 어떤 보상을 할 것인지, 데이터 배당이나 데이터 보상에 대해 고민했어야 한다. 저작권은 권리자의 전가의 보도는 아니지만, 데이터를 아무런 보상없이 이용하면서 그 결과에 대해서까지 독점하는 것은 이치에 맞지 않다. 네이버 회원이기도 한 일반 이용자로서 저작권자에 대한 데이터배당은 고민해야할 것이다. 플랫폼 내에서 그 가치는 산정할 수 있을 것으로 보인다. 데이터 하나하나에 고유의 id값이 부여될 것이기 때문이다. 기업이 권리나 필요를 주장하기 위해서는 합리적이고, 윤리적인지도 검토돼야 한다. 기업의 주장은 그래야 한다. 적어도 정책적인 사항에 대해서는 마케팅과는 달라야 한다. 알고리즘 조작을 앞세워 자사의 이익을 극대화하고 소비자의 후생을 저해하는 행위를 하면서 자율규제를 주장하는 플랫폼사업자들을 신뢰하기는 어렵다. 공정거래위원회로부터 수백억원대의 과징금 처분을 받고, 고등법원에서 패소한 네이버의 행태를 보면서, 소버린 AI를 주장하는 것은 표리가 부동한 지금 대한민국의 현실과도 맞닿아있다면 나만의 우려인가? 특정 기업을 몰아주거나 반대하자는 것이 아니다. 필자는 국회 보좌관 시절, 모시던 의원을 설득하여 네이버의 데이터주권을 위한 국회 세미나를 4차례 정도 기획하여 진행한 바 있다. 최근 구글의 디지털책임위원회 위원으로서 구글의 사회적 책임(responsibility)에 대해 논의하기도 했다. AI만이 공정하고 투명해야 하는 것이 아니다. 그 기업이 사회적 책임을 다하고 있는지를 먼저 살펴야 한다는 것이다. *외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.
    2024.12.22 08:47:09
    '소버린 AI'는 왜 나왔을까?-네이버 AI와 검색의 충돌
1 2
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서경 마켓시그널

헬로홈즈

미미상인