윤리기준에서 제시한 AI 개발자와 제공자의 책임은 '인종차별' 챗봇의 사례에서 시범적으로 실행된 셈이다. 미래로 갈수록 비중을 둘 부분은 기술 개발 자체보다 기술의 윤리적인 개발이다. 일례를 들어 '부당한 AI'로 지목되면 투자자나 소비자에게 배제되는 시스템도 갖춰야 한다. 같은 맥락에서 개발자·제공자 책임을 중시하고 인간성(휴머니티)에 가치 기준을 둔 것은 적절했다. 물론 실제 운용 과정상 부딪힐 문제는 이보다 광범위하다.
사람 중심, 이용자 중심의 지능정보사회가 갖는 맹점 때문이다. 원칙대로 개발 과정을 투명하게 공개해도 AI와 인간의 경계가 모호해질 때의 통제 가능성은 차원이 사뭇 달라진다. 인간의 풍요로움을 보장하는 선을 넘어 인공지능이 윤리적 판단의 주체가 되지 않게 통제할 이유가 여기서 나온다. 어떻게 보면 윤리기준은 실제 각 분야에 적용하기엔 아직 원론 수준이다.
AI 오용이나 기술과 인간이 불화할 때의 폐해도 빠져 있다. 인간, 그리고 인간성을 위한 지침이 훼손되지 않으려면 이용자 역시 디지털 시민성 구비는 필수다. 위험한 미래가 닥치지 않도록 AI 윤리성 심사기구가 빈틈없이 작동해야 할 것이다. 사람 중심의 플랫폼 구축을 위해서도 윤리를 강제할 수 없는 이기적인 인공지능의 출현은 반드시 막아야 한다. 편향적인 기술의 진보가 기존 노동자를 대체할 것에 대한 준비도 하나씩 착수할 시점이다. 미래는 징후를 미리 보이고 온다.
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지