Medium - How Machine Learning is Transforming Healthcare at Google and Beyond

원문 - Dale Markowitz

Trend 파악을 Medium 기고문 요약 포스팅 - 어떻게 머신러닝이 헬스케어를 변화시키고 있는가; 구글과 다른 기업들은 알고리즘을 암을 발견하고 병원 방문을 예측하는 등에 사용하고 있습니다.

머신러닝 -데이터의 패턴을 사용해서 예측을 하는 기술- 은 금융, 유통, 디지털 마케팅과 자율주행 자동차처럼 거의 모든 산업군에 변화시키고 있습니다. 그러나 머신러닝이 인류에게 도움이 되는 분야를 찾아본다면 헬스케어가 가장 유망한 분야일 것입니다.

한달에도 머신러닝이 새로운 질병에 대해서 수련의보다 더욱 정확하고 빠르게 태그를 뭍이는 법을 배우고 있습니다. 머신러닝은 의학 스캔에서 종양을 찾아내는 것을 돕거나 데이터 엔트리를 빠르게 하거나 병원 환자의 요구에 자동적으로 반응합니다.

이렇게 머신러닝은 미국과 전세계에서 의사와 전문가들이 부족한 것을 해결하는 돌파구가 될 수 있습니다. 우리의 수요가 의사의 공급을 넘어서게 된다면 우리는 아마 기술에 의존해서 스스로 문제를 해결할 수 있습니다

이 기사에서는 구글과 다른 기업에서 머신러닝을 헬스케어에 채택하고 있는 방법에 대해서 알아보겠습니다.

Learning to See Diseases in Medical Images

5년전부터 지금까지 머신러닝은 신셩네트워크라고 불리는 모델 덕분에 이미지 분석에서 놀라운 향상을 보여왔습니다. 신경 네트워크는 구조화 되지 않은 정보를 이해하는데 도움이 됩니다. 사진이나 텍스트나 오디오 클립 같은 것들 말이죠. 신경 네트워크는 사진의 동물과 얼굴 인식에 사용되거나 필기를 텍스트로 변환하거나 유체 변환, 구글 사진을 검색하는 것과 같은데 쓰이는 강력한 도구입니다.

Neural nets let you search your pictures by keyword in the Google Photos app. Here are all my breakfast pics.

비전 모델을 스스로 만들어 볼려면 여러분은 방대한 양의 이름이 붙여진 이미지들이 필요합니다. -수백,수천장의 “고양이”, “강아지” 태그가 붙은 사진- 모델을 학습시킬 때 사용할 데이터 들이죠.

이것과 매우 유사한 기술을 사용해서 연구진들은 뉴럴 네트워크에게 의학 사진에서 질병을 찾아내도록 했고 때로는 숙련된 전문가보다 나을 경우가 있습니다.

지난달 구글 연구진들은 신경 네트워크를 학습시켜 26가지의 다른 피부상태를 탐지했습니다. 흑색종, 건선, 습진, 낭종 등 말이죠. 이 모델은 환자의 과거 이력과 조합되어 학습되었으며 일반 피부과 전문의와 비슷하거나 더욱 높은 수준의 정확도를 보였습니다.

이것은 비슷한 연구사례들의 가장 최신 연구사례입니다. 우리는 유방암, 전립선암등을 발견할 수 있고 가장 빠르게 실명을 일으킬 수 있는 당뇨 망막병증을 눈뒤를 스캔하여 알아낼 수 있습니다.

Predicting lung cancer from CT scans. Credit: https://www.blog.google/technology/health/lung-cancer-prediction/

이번 봄에 연구진들은 CT사진을 이용하여 폐암을 예측할 수 있는 모델을 학습시켰는데 방사선과 전문가보다 더욱 뛰어났습니다. 이것이 특별히 더 고무적인 이유는 폐암이 치명적인 암일 뿐만아니라 방사선과에서 가장 찾아내기 힘든 것이기 때문입니다.

이 모델들이 의사들을 당장 대체하지는 않겠지만 미묘한 증상에 대해 경고를 하는 보조용으로는 금방 쓰일 것입니다.

Medical Models that Explain Themselves

정말로 유용한 도움이 되려면 의학용 이미지 모델이 질병만 찾아내는 것 뿐만아니라 그렇게 판단한 프로세스를 설명해야 할 것입니다. 그렇다면 의사가 모델의 예측에 동의하지 않더라도 최소한 왜 그 모델이 그렇게 예측했는지 알게 될 것입니다.

이 때문에 연구진들은 단지 질병의 존재만 예측하는 것이아니라 스캔의 일부분을 시각적으로 하이라이트하여(히트맵) 그들의 판탄에 기여를 합니다.

Ophthalmologists were better at detecting DR when aided by deep learning models and their associated decision heat maps, like the one above. Source: https://www.aaojournal.org/article/S0161-6420(18)31575-6/fulltext

상단의 모델은 당뇨 망막병증을 구분하기 위해 학습된 것으로 망막의 스캔에서 가장 판단에 기여를 한 부위를 하이라이트 합니다. 안과의사들은 이러한 히트맵을 보았을 때 해당 병을 더욱 잘 진단하였습니다.

Wrangling the Medical Data Firehose

머신러닝은 매우 적절하고 좋은 데이터셋이 있어야 잘 작동합니다. 그러나 처방전, 수기와 같은 병원자료들은 분산되어서 다른 사람들의 것과 호환되지 않는 형태로 데이터베이스에 저장됩니다.

데이터 분쟁이 CT사진에서 종양을 구분하는 것처럼 들리지 않을 수도 있겠지만 실제로 헬스케어에서 머신러닝의 역할은 데이터를 정리하고 분류하는 것이었습니다. 뉴럴네트워크가 이미지에서 질병을 찾아내도록 훈련된 것처럼 문서를 해석하여 정리하도록 훈련될 수도 있습니다. 예를들어 수기 처방전을 문법적으로 정리해서 데이터베이스에 저장될 수 있도록 변환하는 것이죠.

Using a ML Vision model, you could extract handwriting to text. Then you could use an ML technique called “Entity Extraction” to understand words in a document and their semantic relationship to each other.

우리가 데이터를 더 쉽게 만들수록 강력한 머신러닝 모델을 만들기 쉬워집니다. 결국 구글은 막대한 자원을 투자하여 헬스케어 데이터를 쉽게 저장하도록 만드는 도구를 만드는데 투자했고 헬스케어 데이터를 운용하기 쉽게 만들고 소프트웨어를 만드는데 쉽게 하는 프로토콜(FHIR)을 개발하는데 도움이 되었습니다.

Credit: https://ai.googleblog.com/2018/05/deep-learning-for-electronic-health.html

이 데이터 분쟁 도구덕분에 이전에 할 수 없었던 학습 모델이 가능해졌습니다. 예를들어 작년에 연구진들은 FHIR데이터를 이용해서 병원 환자들이 방문하는 자세한 타임라인을 구축했습니다. 환자의 생체 신호, 의사의 노트, 연구실의 테스트와 정리된 타임라인같은 데이터로 연구진들은 병원의 방문을 예측하는 강력한 신경 네트워크 모델을 만들 수 있었습니다. 이 타임라인을 사용하여 그들은 환자의 입원 기간이나 사망여부를 예측할 수 있습니다.

의학 데이터가 더욱 잘 정리될 수록 더욱 정교한 의학 모델을 만들 수 있을 것입니다.

Learning to Listen Like a Doctor

데이터를 정리하는데 시간이 걸리듯이 데이터를 처음 수집하는데도 시간이 오래 걸립니다. GP의 오피스를 방문하는 것을 상상해보세요.

여러분의 의사는 뭐가 문제인지 질문할 것입니다. 여러분은 으슬으슬하고 피곤하며 끊임없이 목에 가래가 끓는다고 대답했습니다. 아마 의사는 여러분의응답을 아이패드나 연습장에 적을 것이고 아니면 뒤에 기록을 하는 조수를 둘 수도 있죠. 어떤 경우든지 이 프로세스는 시간을 소비합니다.

만약 다른 사람이 대신 듣고 도와준다면 어떨까요? 예를들면 알렉사나 시리나 구글 어시스턴트 같은 보이스 어시스턴트들 말이죠.

실제로 음성 어시스턴트들은 병원과 의료센터에 배치되어 환자의 응답을 처리하는 직원들을 도와주는 업무를 수행하거나 간호사들에게 주요 정보를 제공합니다.

분명한 것은 의학 음성 로봇은 거대 테크기업들이 관심을 기울이는 사항이라는 것입니다. 아마존엔 최근에 프로그램을 발표했는데 그것은 개발자들이 더욱 쉽게 HIPPA(Alexa 헬스 보이스 앱을 위한 준수사항)를 만들 수 있도록 합니다. 반면에 구글은 많은 시간을 의학적 대화를 더 잘 기술할 수 있는 연구에 쏟았고 이것으로 가능한 것은 의사에게 진료받는 동안 자동으로 환자의 증상을 차트에 묘사하는 것입니다.

그러니까 구글 어시스턴트가 이제 알람이나 일기예보를 말해주는 것 말고도 더욱 많은 것을 해줄 수 있는 날이 머지않은 것이죠.

Summary

  • 의학 분야에 있어서 머신러닝의 최근 연구 동향
  • 음성 어시스턴트를 활용하여 해당 학습 모델들이 활용될 여지가 크다
  • 사진 인식을 통한 의학 진단 보조용 외에도 의학 데이터 분류/정리 및 재방문 예측 등 폭 넓은 곳에서 알고리즘의 활약이 이뤄질 것이다.

© 2019. All rights reserved.

Powered by Hydejack v8.1.1