머신러닝이나 딥러닝 모델의 결과값 도출의 이유 설명
의사결정 이유와 과을 제시, 시스템의 원인 식별로 문제 해결
네이버, 다음 등 포털뉴스 편향성 논란 해소할 대안으로 주목

사진은 지능정보산업협회 홈페이지 이미지를 캡처한 것으로 본문 기사와는 관련없음.
사진은 지능정보산업협회 홈페이지 이미지를 캡처한 것으로 본문 기사와는 관련없음.

[애플경제 이보영 기자] 이른바 설명가능한 AI(eXplainable Artificial Intelligence, XAI)가 날로 관심을 받고 있다. 이는 인공지능의 작용 과정을 훨씬 더 쉽게 이해할 수 있도록 인공지능에 설명 능력을 부여함으로써 AI 결정의 편향성을 줄이고 신뢰도를 높이는 것이다. 특히 네이버, 다음 등 대표적인 국내 포털뉴스 알고리즘의 편향성이 끊임없이 지적되고 있어 XAI는 이런 현실을 개선하거나, 방지할 수 있는 대안으로 평가받기도 한다.

흔히 AI의 알고리즘이 어떻게 결론을 도출하는지 확인할 수 없기 때문에 투명하거나 책임감 있게 해석할 수 없는 경우가 많다. 이런 경우 XAI는 부정확한 추론 과정을 모델링함으로써 딥러닝 기반 인공지능의 문제를 보완할 것으로 기대되고 있다. XAI는 머신러닝이나 딥러닝 모델의 결과값이 어떻게 어떤 이유로 도출되었는지 인간이 이해할 수 있도록 하는 것이다. 이를 위해 블랙박스 성향을 분해ㆍ파악하여 설명 가능성을 제공하기도 한다.

이에 관한 연구를 계속해온 시장분석기관 ‘IRS글로벌’은 “이는 인공지능의 행위와 판단을 사람이 이해할 수 있도록 설명 가능성을 추가하는 것을 의미하기 때문에 AI가 스스로 근거, 추론 과정 등을 논리적으로 설명하는 것이 가능해진다는 의미도 포함하고 있다”면서 “딥러닝 기반 인공지능에서 한 단계 더 발전된 형태로서 그 작동원리가 명확하게 분석되지 않는 복잡한 인공신경망의 한계를 극복하는 의미도 있다”고 했다. 즉, AI의 작동원리를 이해하기 위해 개발되기 때문에 통제가 어려운 기존 AI의 단점을 보완하게 될 것으로 예상하고 있다.

최근 국내에서도 네이버, 다음 등 뉴스포털의 편향성이 늘 지적되고 있다. 해당 기업들은 “AI에 의한 알고리즘의 결과이므로 공정하다”고 주장하고 있지만, 편향성을 둔 논란은 갈수록 커지고 있다. 이처럼 인공지능 시스템 결과에 대한 사용자 및 사회의 수용과 신뢰성에 대한 우려가 나다보니, AI의 신뢰도를 확보하기 위한 다양한 접근 방법으로서 설명 가능한 XAI가 부각되고 있는 것이다. “결론을 내린 이유와 과정을 제시함으로써 가장 적합한 학습모델을 채택하거나, 시스템상 문제가 생길 경우 XAI를 통한 원인 식별을 통해 문제를 해결할 수 있다”는 설명이다.

이런 장점을 갖춘 XAI는 이미 금융, 의료, 자율주행 등 다양한 산업에서 응용되거나, 도입될 가능성을 보이고 있다. XAI는 또 의사결정과 결론, 예측을 하는 AI가 제대로 판단하고 있는지 증빙할 수 있는 데이터를 차트와 분석을 통해 사용자에게 광범위하면서도 자세한 설명을 제공한다. 이를 통해 “판단근거와 신뢰도가 확보되면 안심하고 인공지능을 산업과 사회, 법ㆍ규제 등에 적용할 수 있을 것”이란게 IRS글로벌의 판단이다.

XAI는 또 딥러닝의 윤리, 규정, 신뢰성을 가늠하는 기술로서, 머신러닝과 딥러닝 알고리즘이 어떻게 의사결정의 기준을 정하는지, 또 어떻게 설정됐는지를 밝힐 수 있을 것으로 기대된다. 현재의 인공지능이나 기계학습 기술은 본질적으로 잘 정의된 분류 및 최적화 기술의 하나다. 최근 딥러닝이 전세계적으로 확산되고 다양한 분야에 도입되면서, AI의 추론에 대한 신뢰도를 높이기 위해 다양한 문제를 정밀하게 예측할 수 있는 XAI 활용이 본격적으로 대두되고 있는 것이다.

이처럼 설명가능한 AI는 애초 미국에서 1970년대 처음 그 모습을 드러냈다. 인공지능 시스템인 전문가 시스템이 도출 결과를 전문가들에게 이해시키지 못하면서 처음 등장한 것이다. 그후 일부 연구자들에 의해 지속적으로 연구가 진행되다가, 2004년경 비로소 XAI라는 전문용어로 자리 잡기 시작했다.

이는 애초 기밀정보나 전략분석 분야, 무인자율시스템 작동 분야에서 실무자가 인공지능의 의사결정 과정을 이해하고, 그 결과를 신뢰하며 효과적으로 업무를 수행할 수 있도록 하기 위한 목적이었다. 그래서 지난 2016년 XAI 투자 프로그램을 발표한 이후, 2017년부터 XAI 관련 프로젝트들이 본격 추진되기 시작했다.

최근엔 유럽에서 개인정보보호법(GDPR)을 계기로 AI 알고리즘에 대한 설명을 요구할 권리를 강제함으로써 XAI도입이 가속화되고 있다. 또 아마존웹서비스(AWS)와 구글 등 클라우드 플랫폼 회사들도 설명가능한 인공지능 개발에 참여하고 있다.

아마존웹서비스(AWS)는 자사의 머신러닝용 완전 통합 개발 환경(IDE)인 아마존 세이지메이커 스튜디오(Amazon SageMaker Studio)에 의해 개발자가 맞춤형 머신러닝을 보다 쉽게 생성하도록 한다. “디버깅과 프로파일, 디텍션 등이 가능한 서비스도 개발해 머신러닝 모델 개발ㆍ도입을 위한 고도의 자동화, 통합, 디버깅, 모니터링 기능을 제공할 계획”이라는 아마존의 설명이다.

구글 역시 모델의 예측 과정에서 각 속성(Attributes)의 상대적 중요성을 보여주는 그래프나, 데이터 유형에 따른 맵을 제공하는 도구를 개발했다. 이를 통해 데이터의 편향과 머신러닝의 공정성 문제를 분석하고, 이를 개발자들이 시각적으로 판단할 수 있는 도구를 제공하는 등 이미 XAI 서비스를 제공하고 있는 실정이다.

국내에서도 이미 XAI의 중요성을 인식하고 정부의 ‘인공지능 국가전략프로젝트’의 일환으로 추론ㆍ판단 근거를 논리적으로 설명할 수 있는 인공지능을 개발하고 있다. 울산과학기술원에서도 ‘설명가능 인공지능 연구센터’가 운영 중이다. 세계의 유명 대학 및 연구 기관 등도 XAI 개발에 박차를 가하고 있다.

키워드

#AI #XAI #인공지능
저작권자 © 애플경제 무단전재 및 재배포 금지