■종합적 검토
1. 인공지능의 위험 통제에 대한 제도적 접근
위험을 예측하면서 통제할 수 없는 객체를 유통시켜서는 안 된다는 근대 형사법의 원칙에 따를 경우, 자동차는 개발자가 이미 위험성을 인식하고 있으며 운전자에 의해 그 위험을 통제할 수 있다는 점에서 통제 가능하기에 유통이 가능한 객체라 할 수 있다.
위험에 대해 통제 가능성을 가지고 책임을 논하려 할 경우 인간은 정말로 자기 자신의 신체를 통제할 수 있다고 볼 수 있는지에 대한 궁금증도 생긴다.
인공지능이 개발, 발달의 단계를 거치는 과정에서 초기 인공지능을 인간의 어린이와 비교해 책임문제를 해결하려는 시도도 있다. 부모가 어린 자식을 올바르게 교육시켰음에도 어린이의 행동은 옳고 그름을 판단하지 못하고 행동할 경우가 있다. 인공지능도 딥러닝의 충분한 학습기간을 거쳤음에도 인식 또는 해석의 오류로 인해 위험한 상황을 초래할 수 있다. 그러기에 인공지능의 발전 과정에서 발생한 오류에 대한 책임은 부인되어야 한다는 논리다.
이 논리에 대해 그렇다면 어린이는 어느 정도 시간이 지날 경우 자율성을 가진 성인이 될 것이기에 인공지능도 좀 더 숙련된 학습을 가지게 되면 책임을 부담할 수 있을 것인가. 이에 대한 논쟁에도 인공지능의 책임주체를 긍정할 것인가에 대해서는 부정적 견해가 많다.
생물이 가지고 있는 가장 기본적인 능력은 섭취 능력과 생식 능력이다. 그 외에도 운동 능력과 사고 능력의 고차원적인 능력을 가질 수 있다. 그러나 인공지능은 두뇌, 즉 인간만이 가지고 있다고 판단한 지능만을 가지고 있다. 아리스토텔레스는 지능만을 가지고 있는 생물을 ‘신(神)’이라 했지만 인공지능은 분명 인공물인데 여기에 신이라는 칭호를 붙일 수는 없지 않을까 싶다.
그렇다면 남은 것은 인공지능 자체의 교정기능 확립을 위한 제도가 필요하다. 인공지능 개발자는 어느 단계에서 데이터 학습이 위험할 수 있음을 고지하고 판매자를 통해 이용자도 이러한 위험을 파악하고 있음에도 개발자가 의도하지 않은 데이터를 사용자가 인스톨한 경우 현행 법률로도 ‘위험의 인수’ 등의 법리를 적용해 사용자의 책임을 물을 수 있다.
반대로 일반적인 사용법에 따라 사용하고 있었음에도 프로그램에 무슨 문제가 있거나 특수한 환경에서 바람직하지 않은 작동을 한 결과 위험이 발생한 경우 이를 ‘개발위험의 항변’의 법리를 들어 개발자, 사용자 누구에게도 책임을 묻지 못할 경우 피해는 그대로 사회에 남게 되고 동일 혹은 유사 위험에 대한 사회적 비용이 발생할 수밖에 없다.
청소년 등 미성년 범죄에 소년법을 적용해 선도의 방향으로 유도하듯이 인공지능자체를 교정할 수 있는 제도 마련도 발전과정에 있는 인공지능으로 인해 발생할 통제 불가능한 위험에 대한 대응방법의 하나로 제시되고 있다.
2. 로봇의 ‘고의·과실’에 대한 판단
로봇도 인간처럼 어떤 행위에 대해 ‘고의·과실’에 의한 책임을 추궁할 수 있을까? 이에 대해 재미있는 실험 사례를 소개하고자 한다. ‘로보컵’ 이라는 로봇 축구 리그를 추진하는데 게임규칙에 파울에 대한 규정을 정하려고 한다. 이 파울을 규정하는 것은 아직은 인간의 영역이다. 물론 심판도 로봇이 해야 한다는 주장도 설득력이 있지만 아직까지의 기술력으로는 한계가 있어 계속 연구 중인 것으로 안다.
일반적으로 축구시합에도 고의와 과실의 개념이 있다. 고의에 의한 파울은 즉시 퇴장 명령이 내려지고 과실에 의한 파울은 경고가 내려진다. 이러한 규칙은 비단 축구만이 아니라 농구에서도 유사하다. 그런데 인공지능을 탑재한 로봇의 축구시합은 어떤 모습일까? 인공지능이 범한 알 수 없는 행위에 대해 고의와 과실을 구분할 수 있을 것인지, 또 그 원인은 어디에 있는 것인지 파악할 수 있는지. 공학적으로 로봇에는 고의라는 프로그램은 내장되어 있지 않을 것이기에 물리적으로는 존재하지 않는 고의와 과실이기에 이를 판단하는 것은 인간이고 결국 이는 인간이 하는 축구라 심판이 고의라 하면 고의의 판정이 내려질 수밖에 없게 된다.
그러나, 로봇으로만 구성된 로봇 축구의 프로그램에 상대방의 공격으로부터 실전하지 않기 위해 수비수가 ‘최선’의 수비책으로 상대방 공격수를 강하게 걷어차는 등의 행동 프로그램을 설계한 경우 이에 대한 인공지능의 판단은 ‘최선’에 대한 학습을 통해 어떤 결과를 내 놓을 것인가가 궁금하다.
이처럼 인간 영역에서 고의와 과실은 범죄 구성에서 상당히 차이를 두고 있으나, 인공지능의 고의 혹은 과실에 대한 제재는 장차 다양한 문제를 야기할 수 있을 것이다, 특히 자율주행차의 경우 이 문제는 다양한 관계자의 개입으로 인해 더욱 복잡하게 얽힐 것으로 보인다.
3. ‘책임·주체’에 대한 법공학적 검토
철학자 루트비트 비트겐쉬타인은 ‘개나 고양이는 정직하기 때문에 거짓말을 하지 않는 것이 아니라 거짓말을 할 수 없기 때문에 거짓말을 하지 않는 것이지만 인간은 거짓말을 할 수 있기 때문에 거짓말을 하는 것’이라며 이 거짓말 혹은 정직한 이유는 지능이 있기 때문이라 했다. 인공지능도 지능적인 측면에서 본다면 충분히 거짓을 만들어낼 수 있다고 보여 지기에 고의·과실로 인해 발생한 위험성에 대한 통제 방법은 많은 사례의 축적이 필요해 보인다.
따라서 인공지능의 통제 불가능한 오류에 의한 위험 발생에 대한 ‘책임·주체’를 규명하기 위한 법제도는 큰 틀에서 검토되어야 한다. 사례별, 사안별로 대응한다는 것은 기술개발의 위축, 사회적 자원 낭비를 초래할 수 있다. 좀 구체적으로는 개발자에 의한 설명책임 (accountability)이 마련되어야 하며, 로그 기록에 대한 보존을 통해 리버스 엔지니어링이 가능한 상태가 되도록 각별한 대책이 필요하다. 특히 설명책임과 관련해서는 기계학습은 상당한 수준까지 기술력이 향상되어 있으며, 수식을 통해 대부분 설명이 가능함에도 설명 능력이 이에 수반되지 않는다는 점에 대한 지적도 개발자 입장에서는 법공학적 측면에서 인식의 전환이 요청되는 시점이다.