Publications

Issue paper-No8.JPG
Ethical, Social and Policy Issue of Artificial Intelligence 양종모  2019-12-05 
google-plus

인공지능의 도입으로 인류 사회는 커다란 변혁의 길로 접어들고 있다. 인공지능의 사회·경제적 파급효과로 인한 여러 가지 변화, 특히 부작용은 인공지능에 대한 다양한 대응책을 강구하지 않을 수 없게 만들었다. 

 

인공지능의 활용 과정에서 인공지능의 여러 가지 부정적인 측면이 노출되기 시작했다. 특히 인공지능의 불투명성, 편향성 때문에 인공지능 알고리즘의 적용 결과가 차별을 보이면서 사회적 문제로 대두되기도 하고, 자율주행자동차가 인공지능 알고리즘의 결함으로 인명사고를 일으키는 등의 문제가 발생하면서 안전성에 대한 우려도 커졌다. 이와 같이 인공지능이 초래하는 여러 가지 문제에 대한 해결방안으로는 문제 발생 후의 사후적인 피해 구제책도 있지만, 사전에 미리 예방할 수 있는 방안이 모색되어야 한다. 법적 규범에 의한 사전예방책도 있지만, 인공지능의 개발 단계에서부터 사용단계까지의 전 과정에서 개발자 등이 준수하여야 할 여러 가지 당위적 조치의무를 일률적으로 규정하는 방안이 절실한데, 그것이 바로 인공지능 윤리 규범이다. 인공지능 윤리와 관련한 논의에서 슈퍼인공지능 등 인공지능에 대한 지나친 기대로 인해 그 방향에서 다소 혼선이 있는 것도 사실이다. 인공지능은 먼 미래의 일이 아니라 현실이며, 그 대응책의 모색도 현실에 기초하여야 한다는 관점에서 보면 인공지능의 자율성에 주목하여 인공지능의 주체성이나 법인격부여 등을 논의하는 것은 시기상조라고 여겨진다. 

 

인공지능 윤리 개념 논의는 인공지능으로 인한 부작용의 방지와 활용의 바람직한 방향의 모색에서 출발해야 한다. 그런데도 국내에서 한동안 인공지능이 어떠하여야 하는가 하는 인공지능 자체의 윤리에 대한 논의가 인공지능의 주체성 등의 논의와 함께 이어지다가 최근에 이르러 비로소 인공지능 자체의 윤리가 아닌, 인공지능 개발이 어떠한 방향으로 진행되어야 하는가 하는 개발하는 사람의 윤리가 진정한 인공지능 윤리라는 인식 전환이 일어나면서, 인공지능 윤리 논의는 제자리를 찾아가고 있다.