자동차만큼 편익을 안겨준 발명품도 드물다. 온 인류의 생활양식을 탈바꿈시켰다. 이런 문명의 이기도 때로는 흉기로 돌변한다. 무책임한 제조사나 운전자가 문제다. 그렇다고 차를 없애는 게 나을까. 물론 아니다. 당연하지만 다소 부작용이 있더라도 얻는 이득이 워낙 크기 때문이다. 결국 이점을 취하면서 부작용을 최소화하는 게 합리적인 접근일 것이다.
인공지능(AI) 기술이 그리는 미래 모습에 기대가 크다. 한편으로는 잠재적 위험성에 대한 경고도 곧잘 거론된다. 합당한 걱정이다. 다른 모든 기술과 마찬가지로 AI 기술도 악용될 가능성은 당연히 존재한다. 이미 딥페이크 등에서 그 전조가 보인다. 그렇다고 개발을 멈출 수는 없다. 자동차와 마찬가지로 무책임한 사용을 최대한 방지하면서 편익을 취하는 게 합리적이다.
이와 관련해 세계적 권위지인 ‘이코노미스트’에 최근 흥미로운 기사가 실렸다. AI 비판론자들이 잠재적 위험성에만 지나치게 초점을 맞춘다고 힐난했다. 그러면서 오픈소스 AI 모델에 주목했다. 공개된 개발 과정으로 투명성이 더해진 오픈소스 모델이 상호 검증을 통해 신뢰도를 높이는 데 기여한다고 평가했다. AI라는 강력한 도구가 몇몇 폐쇄적인 실리콘밸리 기업의 손에만 쥐어지는 것도 방지할 수 있다고 분석했다. 따라서 각국 정부도 일관성 있는 안전 규제를 적용하되 오픈소스 AI 활성화를 조성해야 한다고 권고했다. 실제 미국의 오픈테크놀로지연구소도 최근 발간한 보고서에서 “AI 안전성에 대한 논의에서 개방성을 취약성과 동일시하는 것은 잘못됐다”며 “오히려 개방성은 더 안전한 AI 생태계 조성에 기여한다”고 밝혔다. 공개된 환경이 안전성 강화를 촉구하고 이는 더 폭넓은 투명성과 책임감으로 이어지는 선순환 구조를 낳는다는 것이다.
일례로 메타는 2022년 자연어처리(NLP) 시스템에서 공정성을 향상하고 AI 편향을 완화하기 위해 새로운 데이터셋과 모델을 공개했다. 기존의 벤치마크가 주로 성별·인종·민족과 같은 편향에 초점을 맞췄던 반면 새로운 데이터셋은 종교, 사회경제적 배경, 성소수자 정체성 등 500개 이상의 다양한 항목을 포함해 범위를 확장했다. 데이터 취합도 알고리즘과 다양한 전문가 및 실제 경험을 가진 사람들의 참여로 이뤄졌다. 누구나 이 데이터셋을 적용해 AI 모델이 특정 용어에 대해 사회적 편향을 인식하고 이를 회피하도록 훈련하는 기술을 탑재시킬 수 있는 것이다.
다시 자동차 얘기로 돌아가 보자. 지금은 어느 차에나 장착돼 모두가 익숙한 3점식 안전벨트는 1959년 볼보자동차가 개발했다. 볼보는 누구나 사용 가능하도록 이 기술을 공개했다. 기존 안전띠보다 운전자 보호에 우수하자 모든 제조사들이 이를 채택하고 개량했다. 이후 수백만 명의 목숨을 구한 것으로 평가받고 있다. 공개된 이 기술을 기반으로 지금도 더 안전하고 편리한 안전벨트 장치가 속속 연구되고 등장하고 있다. 오픈소스 기술도 누구에게나 열려 있다. 그만큼 공개된 환경에서는 집단의 지성이 작용한다. 이를 통해 안전성도 검증받고 올바른 방향으로 개량된다. 치열한 기술 경쟁 속에서 오픈소스 AI 모델이 주목을 받고 있는 이유다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >