인공지능 기술발전과 입법 정책적 대응방향
2016년 3월 알파고(AlphaGO) 와 이세돌의 바둑 대국은 세간의 관심을 집중시켰다. 이와 동시에 국내에서도 다양한 사회 영역에 걸친 인공지능(Artificial Intelligence) 활용에 관심이 높아지고 있다. 인공지능 기술개발은 수십 년간 부침을 겪으면서 발전해 왔다. 그런데 최근 머신러 닝(Machine Learning) 과 딥러닝 (Deep Learning) 등의 기술적 발전은 인공지능에 대한 관심을 강하게 추동하고 있다. 인공지능의 활용과 이로 인한 사회변화에 대해서는 다양한 논쟁이 발생하고 있다. 이러한 논쟁은 인간의 지능을 뛰어넘는 지능적 개체들에 대한 인간의 통제 가능 성을 상실하게 될 수도 있다는 우려로부터 기인한다.
그러나 이러한 논쟁은 아직까지 먼미래에 관한 이야기이다. 현재 중요한 것은 어떻게 하면 인공지능 기술을 기존 사회질서와 충돌하지 않는 방향으로 안착시킬 수 있는지 여부이다. 이 글에서는 인공지능을 둘러싼 입법환경을 검토해 보고, 향후 입법정책적 측면에서의 대응 방향을 검토해 보고자 한다.
인공지능의 영향과 입법
인공지능 기술 및 산업은 비교적 최근에서야 급격하게 발전하고 있기 때문에, 이러한 기술이 향후 어떠한 형태와 방향으로 발전할 것인지에 대해 명확하게 파악하기 힘든 측면이 있다. 다만 이하에서는 기술적 특성을 감안하여, 현단계에서 논할 수 있는 입법환경의 변화와 입법쟁점에 대해 개관해 보기로 한다.
(1) 2015년 기술영향평가 결과
미래창조과학부는 「과학기술기본법」 제14조에 근거를 두고 새로운 과학기술의 발전이 경제·사회· 문화·윤리·환경 등에 미치는 영향을 평가하기 위하여 ‘기술영향 평가’를 실시해 오고 있다. 2015 년 기술영향평가 주제 중 하나가 바로 인공지능 기술이었다. 그 결과를 요약하자면 <표1>과 같다.
기술영향평가는 인공지능으로 인한 국가·사회 전반의 변화상황 을 예견해 볼 수 있다는 점에서 의미가 있다. 그러나 이러한 결과를 토대로 현재의 입법에 즉각 반영해야 할 사항을 도출하기에는 다소 어려움이 있다. 그 이유는 위 평가가 장기적 예측에 기반하고 있기 때문이다.
(2) 입법적 차원의 쟁점: 위험관리
인공지능의 발전으로 인한 순기능과 역기능을 정확하게 예측하는 데에는 한계가 있다. 이는 인공 지능의 활용이 일상화된 이후에도 마찬가지일 것이다. 그 이유는 인공지능 기술은 그 자체가 자율적 상황판단을 추구하고 있어, 그기술적 구현양태를 구체적으로 예견하기 어렵기 때문이다. 그러나 분명한 것은 인공지능 기술이 일상생활 속에 보편화되었을 때, 국가·사회·문화·경제전 영역에서 예측하지 못했던 다양한 위험이 발생할 가능성이 높다는 점이다. 인간의 사고와 판단이 중심을 차지하던 구조 속에, 새로운 행위주체 및 판단논리가 개입해 들어오기 때문이다. 따라서 향후 인공지능의 발전과 관련한 입법정책적 쟁점은 예측 불가능한 위험에 얼마만큼 신속하고 정확하게 대응할 수 있는지 여부라고 할 수 있다. 즉 과거와 같이 구체적인 위험(규제요인) 및 권리보 호를 개념화하여 대응하는 데에는 한계가 있다. 결론적으로 인공지능 기술발전, 즉 지능정보사회에 효과적으로 대응하기 위해서는 불가피하게 과거 입법 패러다임과는 다른 위험관리 (Risk Management)적 관점이 내재된 입법정책 추진이 필요하다.
중장기적 입법정책 방향
(1) IT융합 생태계 규제체계 정비
인공지능 관련 기술은 기존 IT분야를 넘어서서 여타의 산업분야 와의 융합을 더욱 가속화할 것으로 전망된다. 그런데 우리나라의 경우 그간 임시방편적 입법 추진으로, 다른 국가들에 비하여 복잡하고 엄격한 IT 규제 및 추진체계를 가지고 있다. 이는 종종 규제 중복 및 혼선의 원인이 된다. 따라서 향후 인공지능 및 이와 연계된 융합산업 생태계를 활성화시킴은 물론이고, 그과정에서 이용자의 기본권을 실질적으로 보장하기 위해서는, 현행 IT 규제체계를 개편해 나가야할 필요가 있다. 특히 이는 수범자(사업자 및 이용자)의 규제 예측 가능성 확보라는 측면에서 중요성이 있다.
(2) 소프트웨어 안전관리 방안 모색
인공지능의 활용으로 인한 위험을 가능한 한 방지하기 위해서는, 그것의 기반인 알고리즘 또는 소프트웨어의 안전성과 신뢰성을 유도 하고, 또한 그 활용단계에서의 통제 가능성 확보방안(알고리즘 투명성)을 입법적으로 모색할 필요가 있다. 그러나 이에 있어서는 인허가 기준 등 국가 주도의 요건 설정은 가급적 지양하는 것이 타당하다. 이러한 국가 개입방식은 자칫 자생적 기술발전 또는 기술 중립성을 저해할 뿐만 아니라, 결과 적으로 민간영역의 창의성을 제약할 수 있기 때문이다.
(3) 상시적 위험평가 체계 구축
인공지능의 활용으로 인한 위험은 그것이 일상화·보편화된 이후 에도 정확하게 예측하는 것은 어렵기 때문 에, 정확한 정책 및 입법소요를 파악하는 데에 한계가 있다. 따라서 인공지능기술과 서비스의 발전을 지속적 으로 추적하면서 발생 가능한 위험요인들을 빠르게 파악하여 입법반영 여부를 판단해 나가야 할 필요가 있다. 물론 이러한 상시적 위험평가체계 구축은 비단 인공지능 기술 자체에만 한정하는 것이 아니라, 이것과 융합 및 연계가 가능한 사회 영역들에 대한 영향을 포괄 하여 평가할 수 있는 것이어야할 것이다.
(4) 사회적 가치 합의 및 소통기반 마련
인공지능 기술의 활용은 개인의 일상생활은 물론이고, 사회구조적인 가치 및 분배체계 전반에도 상당한 영향을 미칠 것으로 예견된다. 따라서 이에 대한 사회적 가치 지향에 대한 최소한의 합의 및 소통이 전제되지 않는다면, 또 다른 사회적 갈등의 원인이 될 수 있다. 따라서 향후 정부가 인공지능 활용이 보편화된 지능정보사회를 향한 로드맵 등을 구상함에 있어서는 단지 관련 기술의 개발 및연구에만 초점을 둘 것이 아니라, 규범적·윤리적 논제들의 심층적 연구와 공론화에도 관심을 기울여야 할 것이다.
기술의 발전이 불러올 사회적 변화에 대한 입법적 차원의 대응은 반드시 필요하다. 그러나 이러한 대응은 앞서나간 예측에 기반할 필요는 없다. 과도한 예측은 불필 요한 규제를 양산할 수 있기 때문이다. 오히려 현 시점에 중요한 것은 인공지능 환경에서의 법규범 정립을 위한 진지한 분석과 소통이다. 다소 시일이 걸리더라도, 단계적이고 계획적인 입법적 대응 방안의 모색이 필요하다.
※ 위 원고는 심우민 국회입법조사처 과학방송통신팀 입법조사관(법학박사)의 보고서 중 발췌한 것입니다.