인기 키워드 순위

    메디게이트 뉴스

    "의료 인공지능, 산업 활성화가 아닌 임상 검증을 통한 신뢰도 구축부터"

    임상의사, 개발부터 현장 검증까지 다양한 의료 인공지능 활용 역할 기대

    기사입력시간 2018-11-09 06:52
    최종업데이트 2018-11-09 09:09

    사진: 대한영상의학회 심포지엄 '의료인공지능 시대를 대비하는 영상의학회의 도전과 과제'. 서울아산병원 영상의학과 박성호 교수.

    [메디게이트뉴스 정다연 기자] 진단 오류를 줄이고 최적의 치료방법을 찾을 수 있다는 측면에서 의료 인공지능에 대한 관심이 뜨겁다. 의료 인공지능을 임상 현장에 적용하려면 임상 검증을 활성화하고 임상 의사가 개발부터 적용까지 참여해 안전성과 유효성을 확보해야 한다는 과제가 제시됐다.

    대한영상의학회는 한국과학기자협회와 공동으로 8일 서울대학교에서 세계영상의학의 날을 기념해 '의료인공지능 시대를 대비하는 영상의학회의 도전과 과제' 심포지엄을 개최했다. 이날 심포지엄에서는 의료 인공지능의 현황과 문제를 짚고 의료 인공지능 시대를 맞이한 대비책이 논의됐다.

    임상 검증으로 의학적 가치 증명하고 신뢰 구축해야

    서울아산병원 영상의학과 박성호 교수는 의료 인공지능이 제대로 된 임상 검증을 통해 의학적 가치를 증명하고 신뢰도를 높여야만 세계 인공지능 산업에서 경쟁력을 갖출 수 있다고 주장했다.

    박 교수는 "디지털 예외주의(Digital Exeptionalism)라는 말이 생겼다. 그만큼 의료분야에서 인공지능은 임상 검증이 거의 이뤄지지 않고 있다"며 "인공지능은 상업적 측면으로만 보고 조급하게 도입할 문제가 아니다. 의료 측면에서 의료 인공지능은 임상 검증을 해야한다"고 말했다.

    박 교수는 "한국은 새로운 의료기술을 도입하면 식품의약품안전처와 한국보건의료연구원(NECA), 건강보험심사평가원을 거쳐서 의료기술을 평가한다"며 "정부가 추진하는 혁신의료기술 별도 평가체계는 보건의료연구원의 역할을 간소화해 의료 인공지능을 빨리 시장에 도입하려는 것이다"고 말했다.

    박 교수는 "의료 인공지능과 관련해 자꾸 미국은 빨리 가는데 한국은 늦었다는 지적이 나온다"며 "이는 사실과 다르다. 미국이 의료 인공지능을 밀어주고 있다고 하지만 인공지능으로 식품의약국(FDA)을 통과한 것은 없다. 이는 미국에서 개발된 제품들이 보험 급여를 받는 제품이 아니라는 뜻이다. 병원이 필요해서 사는 제품일 뿐이다"라고 말했다.

    박 교수는 "우선 의료 인공지능을 한국의 보험 급여에 도입해 병원이 쓰게 하는 것이 먼저인지, 환자의 건강에 도움이 되는 의료 인공지능을 개발하도록 하는 것이 우선인지 살펴봐야 한다"며 "이를 위해 정부가 의료 인공지능에 대한 임상 검증을 적극적으로 해야한다"고 지적했다.

    박 교수는 "영국 NHS(National Health Service, 국가보건서비스)는 산부인과에서 임산부를 24시간 모니터링하는 인공지능을 국가보험에 도입하기 전에 임상 검증을 했다. 연구 대상자 4만7000명 중 절반은 인공지능을 도입해 관찰했고 나머지 절반은 평소대로 했다"며 "임상 검증 결과, 양쪽에서는 아무런 차이가 나지 않았다. 그래서 영국 NHS는 도입하지 않기로 결정했다"고 말했다.

    박 교수는 "이 인공지능은 환자에게 더 큰 이익을 주지 않아서 사회보험 제도에 포함되지 않았다. 하지만 의사를 대체한다는 결과를 통해 산부인과 의사의 노동을 덜었고, 이 시간에 의사가 다른 방면으로 환자들에게 더 질 높은 의료서비스를 제공할 기회를 줬다"며 "병원은 이런 이유로 보험 급여에 포함되지 않지만 의료인공지능을 구입할 수 있다"고 말했다.

    박 교수는 "정부가 무리하게 임상검증을 생략해 의료인공지능 산업 활성화에만 초점을 맞추는 정책은 의료의 발전에 도움이 되지 않는다"며 "오히려 임상검증을 활발하게 해 의료인공지능에 대한 신뢰도를 높이고 경쟁력을 높이는 방향으로 가야한다"고 강조했다. 
     
    사진: 루닛 김기환 이사.

    임상 의사 AI 개발부터 현장 적용까지 참여로 역할 확대

    의료 영상진단 인공지능 기업인 루닛의 김기환 이사(영상의학과 전문의)는 영상의학 분야에서 인공지능의 발전 가능성을 제시하고 영상의학의 역할의 중요성을 강조했다.  

    김 이사는 "AI 시대에 영상의학 의사의 역할은 단지 의사의 역할에 머물지 않는다"라며 "영상의학과 의사는 임상에 필요한 AI 기술을 제안할 수 있다. 또 개발 과정 참여해 AI 성능을 검증할 수 있고 AI 기술을 활용하는 방안에 대해서 의견을 제시할 수 있다"고 밝혔다.

    김 이사는 "AI의 등장으로 영상의학과 전문의의 역할이 중요해진 이 시점에 영상의학과 전공자가 줄어들고 있다는 사실은 안타깝다"고 말했다.

    김 이사는 "의료 영상이 주목받게 된 계기는 구글이 다수의 의료영상을 가지고 테스트를 한 데서 비롯됐다. 당시 AI가 전문가의 역할을 할 수 있다는 것을 보여줬다"고 말했다.

    김 이사는 "의료영상 분야에서 딥러닝을 사용한 논문이 기하급수적으로 증가하고 있다"며 "하지만 의학을 모르는 공학 연구자들은 실제 의료 현장에 필요한 사항을 연구에 반영하지 못하고 있다"고 지적했다.

    김 이사는 "임상 의사와 협력이 중요한 이유다"며 "영상의학과 전문의는 이런 면에서 개발 과정에서 AI 기술의 성능을 검증할 수 있고 어떻게 임상시험을 해야할지 디자인할 수 있다. 또 최종적으로 의료 현장에서 AI의 효용성을 검증하는 역할도 할 수 있다"고 말했다.

     
    사진: 강남세브란스병원 영상의학과 김성준 교수.

    강남세브란스병원 영상의학과 김성준 교수는 미국 영상의학회(ACR)가 2017년 설립한 DSI(Data Science Institute) 사례를 통해 한국도 임상진료에서 인공지능의 방향성을 제시하고 지속적으로 임상 검증을 할 기구가 필요하다고 주장했다.

    김 교수는 "의료영상 데이터는 모든 질환에 고르게 존재하지 않는다"며 "표준화된 의료영상 데이터 구축은 인공지능 기술은 환자의 안전을 위해서도 반드시 필요하다"고 말했다.

    김 교수는 "이런 맥락에서 미국의 영상의학회에 해당하는 ACR(American College of Radiology)은 DSI(Data Science Institute)를 설립하고 의료영상 인공지능의 개발과 검증에 필요한 의견을 모으고 표준화 요구에 대처하고자 웹사이트(https://www.acrdsi.org/)를 개설했다"고 말했다.

    김 교수는 "인공지능은 수집한 데이터를 가지고 알고리즘으로 데이터 바깥에 있는 결과를 도출한다. 실제로는 환자나 의료진이 원하지 않는 결과가 나올 수 있기 때문에 환자의 안전을 위한 임상 검증이 필요하다"고 했다. 

    김 교수는 "최우선 가치인 환자 보호를 위해서 인공지능 알고리즘을 지속적으로 검증하는 것을 목표로 하고 있다. 또 산업계와 관계를 구축해 임상적용에 개입해 인공지능의 신뢰도를 높이고 인공지능을 사용하는 의사들을 교육하고 있다"고 말했다.

    김 교수는 "DSI는 이런 방향성을 가지고 의료 인공지능 시대를 대비하고 있다. 한국에서도 이런 종합적인 역할을 해야하는 기구가 만들어져야 한다"고 말했다. 

     
    사진: 서울대 과학사 및 과학철학 협동과정 홍성욱 교수.

    "데이터는 숫자가 아니라 사람이다"

    서울대 과학사 및 과학철학 협동과정 홍성욱 교수는 의료 인공지능 산업이 형성되는 시점에 윤리적 측면에서 문제점을 짚었다.

    홍 교수는 "인공지능에 대한 대중의 우려는 두 가지로 볼 수 있다. 하나는 킬러로봇에 관한 것이고 다른 하나는 초지능에 대한 것이다"며 "킬러로봇은 최근 카이스트가 한화와 함께 군사인공지능 관련해 연구협력한 것이 국제적으로 알려지면서 문제가 됐다"고 밝혔다.

    홍 교수는 "당시 세계적인 연구자들이 카이스트가 킬러로봇을 개발한다면 보이콧을 하겠다고 선언했다. 카이스트는 기초연구만 한다고 해명했고 킬러로봇을 개발하는 응용연구를 하지 않겠다고 밝혔다"고 말했다.

    홍 교수는 "초지능에 관한 우려는 인공지능이 모든 영역에서 인간의 능력을 뛰어넘게 되는 순간이 언젠가 인류에게 적의를 가진 인공지능이 인류를 멸망시킬지 모른다는 것이다"고 말했다.

    홍 교수는 "그런데 인공지능에 대해 걱정할 부분은 따로 있다"며 "2017년 구글의 인공지능 책임자인 존 지아난드레아(John Giannandrea)는 '편견이 깃듯 데이터야말로 인공지능의 진짜 위험한 문제'라고 말했다. 이는 인공지능이 사회적 편견을 증폭시킬 수 있다는 뜻이다"고 밝혔다.

    홍 교수는 "미국 노스포인트의 'COMPAS'는 범죄 위험을 예측하는 인공지능 알고리즘이다. 이 인공지능은 교도소에 수감 중인 범죄자의 재범 확률을 0점에서 10점으로 측정해 판사의 결정을 돕는다"며 "그러나 백인보다 흑인을 잠재적 범죄자로 분류하는 경향이 2배 이상 높은 것으로 드러났다"고 말했다.

    홍 교수는 "왜 이런 문제가 생겼는가. 사회는 사람을 차별하는 데이터를 감추려고 애쓴다. 하지만 AI는 이를 쉽게 간파할 수 있어 편견이 개입될 가능성이 높아진다"며 "의료계에서 빅데이터를 이용할 때도 이 점을 주의해야 한다"고 강조했다.

    홍 교수는 "미국의 의료 데이터는 백인 남성을 위주로 구성돼 있다. 이는 AI가 추천한 치료법이나 처방이 다른 인종, 다른 성별을 가진 사람에게는 적합하지 않을 수 있다는 뜻이다"며 "의료 데이터는 단지 최적의 치료법만으로 이뤄지지 않는다. 의료 기준의 변화, 보험 정책, 환자와 병원의 거리 등 많은 영향을 받는다"고 말했다.

    홍 교수는 "데이터는 숫자가 아니라 사람이다"며 "데이터는 숫자에 불과하다고 해석하지 말아야 한다. 그리고 해당 데이터는 사람에게 해를 끼칠 수 있다는 사실을 명심해야 한다"고 강조했다.