카드뉴스

예측 불가능한 인공지능의 위협

2018년 09월 26일
  • 0926 카드뉴스 200dpi 01
  • 0926 카드뉴스 200dpi 02
  • 0926 카드뉴스 200dpi 03
  • 0926 카드뉴스 200dpi 04
  • 0926 카드뉴스 200dpi 05
  • 0926 카드뉴스 200dpi 06
  • 0926 카드뉴스 200dpi 07
  • 0926 카드뉴스 200dpi 08
  • 0926 카드뉴스 200dpi 09
  • 0926 카드뉴스 200dpi 10
  • 0926 카드뉴스 200dpi 11
  • 0926 카드뉴스 200dpi 12
  • 0926 카드뉴스 200dpi 13
  • 0926 카드뉴스 200dpi 14
  • 0926 카드뉴스 200dpi 15
  • 0926 카드뉴스 200dpi 16
인공지능은 가끔 기발한 생각을 한다.
오직 입력된 목표를 향해 전진할 뿐
고정관념이나 터부가 없기 때문이다.
 
그런데 인공지능의 이런
기발함은 위험할 수도 있다.
 
이와 관련한 흥미로운 기사가 최근
기술전문 매거진 와이어드에 소개됐다.
 
구글 자회사 딥마인드는
알파고를 만든 회사로 유명하다.
 
여기에 인공지능의 예측 불가능성을
제어하는 전문 인력이 있다.
 
이들의 임무는 인공지능 시스템을
올바른 길로 인도하는 것이다.
(coach the system)
 
인공지능이 임무를 해결하기 위해
문제를 수학적으로 최적화(mathematical optimization) 하는 과정은
무섭도록 비인간적(!)일 수 있기 때문이다.
 
예를 들어
‘호수의 물고기를 잡아라’라는
임무가 있다고 하자.
 
사람이라면 어떨까?
그물을 던지거나, 낚시를 할 것이다.
 
간혹 어떤 사람들은
전기충격 등의 극단적
방법을 쓸 지도 모른다.
 
인공지능이라면?
호수의 물을 통째로
빼버리는 선택을
할지도 모른다.
 
전기를 아끼기 위해
대규모 정전(Black out)을 일으키는 것도
얼마든지 가능하다.
 
인간 입장에선 어처구니없지만
문제 해결에는 효과적이다.
 
문제는 인공지능이 어떤 과정을 거쳐
이러한 결론에 도달하는지
전문가들도 알 수 없다는 점이다.
 
이는 기계학습(Machine learning)의
특징 때문이다.
 
기계 학습이란 말 그대로
 
주어진 데이터를 바탕으로 인공지능이 스스로 학습해
패턴을 파악하고 문제 해결 공식을 만들어간다는 개념이다.
 
기계학습과 이를 더 심화시킨 딥러닝이 등장한 이후,
인공지능의 성능은 비약적으로 향상됐다.
 
하지만 전문가들조차 기계학습 인공지능이 어떤 과정을 통해
결론을 내는지 정확하게 파악할 수 없다.
 
많은 전문가들은 기계학습 인공지능을
어두운 블랙박스(Dark Black Box)라고 부른다.
 
때문에 이런 예측 불가능한 인공지능을 파악하기 위해
많은 연구가 진행되고 있다.
 
최근 주목받고 있는 개념은
설명가능한 인공지능(XAI; eXplainable AI)이다.
 
인공지능이 어떤 과정을 거쳐
결과를 도출하는가를
인간이 알 수 있는 언어로
나타내는 것이다.
 
 
이는 ‘선택’이 아닌 ‘필수’다.
 
사소하게는 운전에서부터 크게는 대기업의 투자 결정까지.
이제 인공지능은 사회 전 분야에서
기본 시스템으로 활용될 것이기 때문이다.
 
효율만을 중시하는 해결책이
얼마나 위험한 것인지 우리는 알고 있다.
 
앞으로 인공지능 자체의 성능만큼
‘예측 불가능성을 어떻게 제어하고 통제하는가’
하는 것이 중요해질 것이다.
 
평가하기
추천 콘텐츠
인기 카드뉴스
쿠키를 지원하지 않는 브라우저이거나 브라우저 설정에서 쿠키를 사용하지 않음으로 설정되어 있는 경우 사이트의 일부 기능(로그인 등)을 이용할 수 없으니 유의해 주시기 바랍니다.
메일링 구독신청하기