에피소드

인공지능에 기반을 둔 의사결정을 과연 신뢰할 수 있을까?

<KISTI의 과학향기> 제3268호   2018년 12월 17일
사물이 어떤 방식으로 동작하는지를 알기를 원하는 인간의 의구심으로 인해 일부 기술들의 신뢰도 문제가 불거지고 있는 가운데, 확률론에 기반을 둔 기기학습 알고리즘은 전문가 조차도 특수한 결정을 내리는 방식을 정확히 파악하기가 어려울 수 있다고 한다.
 
물론 추천을 해주는 어플리케이션이나 서비스에서는 문제가 되지 않지만 투명성이 부족한 경우에는 건강서비스나 보험가격 책정과 같은 서비스에 해당 요소가 도입될 경우, 이를 받아들이는 사람들의 입장에서는 매우 불안한 요소로 자리잡을 수 있는 여지가 있다 하겠다.
 
인공지능 기반의 자동화된 의사결정 플랫폼인 Rainbird社의 최고경영자인 Ben Tailor씨는 기기학습 모델을 사용해 가격을 매길 수는 있으나 성별이나 민족성, 혹은 기타 요소들에 대한 가격책정이 가능한지 여부에 대해서는 알 수 없다는 점을 언급하며, 신뢰성이 결여된 기술은 확대되는데 오랜 시간이 걸릴 수 있으며 이는 전자렌지가 대중들의 뇌리에 방사능이라는 단어와 연관되지 않아 보다 빨리 주방 내 표준형 조리기구로 자리잡게 될 수 있었던 사례와도 맞물려 생각해봐야 한다는 점을 언급한 것으로 나타났다.
 
알고리즘의 불투명성 또한 인공지능이 내린 결정에 대해 궁극적으로 누구에게 책임이 귀책되는지와 관련된 다양한 유형의 법적 질의가 제기될 수 있을 것으로 보이는데, 현재까지도 해결되지 않은 지난 80년대의 자동화된 치료법에 대한 소송이 그 사례에 해당된다고 한다. 특히 인공지능과 관련된 법안은 법률적 정의가 매우 느슨할 뿐 아니라 빠르게 진행되는 기술의 진보와는 달리 법적인 절차는 그 속도를 따라잡을 수 없어 보다 많은 복잡성을 양산해낼 수 밖에 없기 때문이라고 한다.
 
이로 인해 서비스 제공업체들은 인공지능 기반의 의사결정에 감사기능을 구축하는 것에 관심을 갖게 되었으며, IBM社를 비롯해 몇몇 사업자들은 데이터 과학자들이 이러한 의사결정모델을 어떤 방식으로 만들고 사용할 수 있는지를 알려주는 도구를 배포하고 있다고 한다. 이에 현재 데이터 과학자들은 감사자들에게 특정한 의사결정을 내린 이유를 설명할 수 있으며 의사결정의 모델이 동작하는 원인을 설명할 수 있을 것으로 예상되어 앞으로는 감사기능이 대부분 데이터 과학의 주도 하에 이루어질 수 있을 것으로도 예상해볼 수 있다 하겠다.
 
결국 인간을 모든 의사결정의 중심에 두기 위해서는 이해가 가능한 시스템을 구축할 수 있어야 하고 이러한 시스템들이 신뢰를 기반으로 만들어져야 할 것임을 의미하고 있으며, 대다수 인공지능에 기반을 둔 의사결정에 있어 인간이 궁극적인 조정자 역할을 하는 것이 앞으로 중요할 것으로 예상되고 있다 하겠다.
평가하기
추천 콘텐츠
인기 에피소드
메일링 구독신청하기