[메디게이트뉴스 박민식 기자] 의료인공지능의 ‘블랙박스’ 문제를 해결할 수 있는 대안으로 설명 가능한 인공지능(eXplainable AI, XAI)이 주목받고 있다.
블랙박스는 인공지능이 내린 결론이 어떤 과정과 방법을 거쳐 나온 것인지 설명이 불가능한 문제를 뜻한다. 특히 안전성이 중요한 의료분야에서 인공지능 활용을 위해 해결돼야 할 이슈로 지적돼 왔다.
31일 한국보건산업진흥원 의료정보R&D팀이 최근 발간한 보고서를 확인한 결과 이 같은 의료인공지능의 현황과 XAI에 대해 소개했다. 보고서에 따르면 의료분야의 경우, ICT 융합 기술 발전 및 대규모 빅데이터의 확보가 용해지며 의료데이터를 활용한 의료인공지능 기술 개발이 활성화되고 있다.
이렇게 개발된 의료인공지능은 환자에게 적합한 맞춤형 치료를 제공하고, 데이터 기반의 정밀도 높은 진료로 의료 패러다임의 변화를 촉진하고 있다는 평가를 받고 있다.
세간의 기대를 반영하듯 시장의 성장 속도도 가파르다. 세계 의료인공지능 시장은 연평균 성장세 28.44% 기록하며 2018년 2조3782억원에서 2023년 8조3134억원으로 확대될 것으로 전망되고 있다.
국내의 경우도 지금까지 총 64건의 인공지능 의료기기가 인허가를 받았으며, 대부분이 영상데이터 분석을 통한 영상 진단을 보조하는 역할을 하고 있다.
하지만 유망해 보이는 의료인공지능도 본격 활용을 위해 선결해야 할 과제들이 적지 않다. 특히 어느 분야보다도 안전성이 중요한 의료계의 특성상 인공지능의 결론 도출 과정과 방법을 알 수 없는 블랙박스 문제는 더욱 해결이 중요한 상황이다.
개인의 특성이나 질병의 진행 과정 등에서 예기치 못한 변수가 있을 경우, 위험한 결과가 초래되는 것은 물론 인공지능에 대한 투명성∙신뢰성이 저하되며 법적 책임 소재 문제 등이 발생할 우려가 있기 때문이다.
보고서는 이런 문제의 해결을 위해 XAI 기술이 각광받고 있으며, 최근 의료인공지능을 중심으로 개발연구가 활발히 진행되고 있다고 소개했다.
XAI는 인공지능의 행위와 판단을 사람이 이해할 수 있는 형태로 설명할 수 있는 인공지능 기술이다.
설명 방법(설명 모델)에는 ▲중요한 특징 제시 ▲중요한 데이터 부분 제시 ▲AI의 가독화 ▲자연어를 통한 설명으로 각각에 대한 연구가 진행되고 있으며, 사용자가 이해 가능하도록 설명하는 인터페이스에 대한 연구는 ▲자연어로 작성하는 자동 보고서 ▲모델의 의사결정에 대한 설명을 사용자가 이해 가능하도록 표현하는 방법 등이 이뤄지고 있다.
보고서는 현재 XAI 기술을 접목한 산업은 매우 제한적이지만 다양한 형태의 의료데이터로의 확장을 통해 의료인공지능 기술 시장 확대에 큰 파급력을 미칠 것으로 예상했다. 실제로 IT컨설팅 기업인 엑센츄어(Accenture)는 XAI 기술의 수요가 큰 분야 중 하나로 의료영상 해석(Medical Image Interpretation) 분야를 선정하기도 했다.
보고서는 XAI에 대해 “인공지능이 잘못된 결과를 도출하는 원인을 밝혀 인공지능 사용에 대한 불안감을 해소할 수 있다”며 “또한 도출한 결과에 결정적 영향을 미치는 요인이 무엇이지 투명히 밝히고, 규정준수에 필요한 요구사항을 충족시키는데 활용돼 인공지능 서비스의 가치를 발생시킬 수 있다”고 전망했다.
다만 “설명 가능한 인공지능 모델 간의 설명성을 비교할 수 있는 과학적 근거 및 평가기준 마련 등 임상적 효용성 검증이 필요하다”고 강조했다.