"AI 신약 개발, 디지털 전환으로 데이터 고립 해결해야"
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
의료 AI·디지털 헬스케어 혁신 기술 세미나
글로벌 R&D 플랫폼 공급사인 닷매틱스의 이호상 아태지역·한국 대표는 20일 인공지능(AI)을 활용하는 제약·바이오 기업이 디지털 전환을 통해 부서 간 데이터 고립 문제를 해결해야 한다고 조언했다.
이 대표는 이날 서울 구로구 산업교육연구소에서 열린 '2024년 의료 AI 및 디지털 헬스케어 혁신 기술과 미래 전망 세미나'에서 "우리는 데이터를 드러내는 것에 두려움이 있는 것 같다"며 "새로운 연구를 할 때 전임 연구자가 누구였는지조차 파악하기 힘든 게 현실"이라고 말했다.
이 대표는 데이터 양, 속도, 다양성이 빠르게 증가하는 가운데, 디지털 트랜스포메이션(전환)을 통해 '데이터 사일로 현상'을 극복해야 한다고 당부했다.
데이터 사일로 현상은 기업 간 데이터를 공유하지 않아 데이터가 고립되는 것으로, AI가 방대한 데이터를 수집하는 데 제약이 될 수 있다.
이를 위해 디지털 워크플로우(작업 체계)를 구축하고, 후보물질 관리, 디지털 연구 기록, 데이터 분석·스크리닝 실험 등에서 디지털 전환을 이루는 게 중요하다고 강조했다.
이 대표는 "AI 신약 개발 연구를 후보 물질을 빠르게 찾는 것으로만 접근하는데, AI의 잠재성을 편향되게 접근하는 게 아닌가 생각한다"며 "임상 기관 선정, 환자 모집, 데이터 기반의 가상 임상 대조군을 만드는 등 임상 단계에서도 활용할 수 있다"고 말했다.
이미 공개된 데이터와 함께 자체 데이터베이스를 구축하는 것도 중요하다고 강조했다.
이 대표는 "글로벌 제약사는 퍼블릭(공용) 데이터베이스에 인하우스(회사 자체) 데이터베이스를 추가로 가지고 있는 반면, 우리나라 신약 개발 연구소는 대부분 공용 데이터를 활용한다"며 디지털 데이터 분야의 비대칭 문제도 우려했다.
AI를 적용한 의료·헬스케어 제품의 경우, 허가를 받은 후에도 효과를 지속해서 검증할 필요가 있다는 의견도 나왔다.
가톨릭대학교 의과대학 고태훈 교수는 "코로나19 때 나온 데이터를 급하게 학습해 나온 모델은 편향성 등이 제대로 검증이 안 됐다는 연구가 있다"며 "허가된 소프트웨어가 많은 병원에서도 인종, 환자의 생활 환경 등에 따라 문제가 없는지 전향적 검증을 더 해야 한다는 지적이 나온다"고 말했다.
그러면서 AI가 성별·인종·보험 가입 여부 등에 따라 편향된 진단을 내놓았다는 연구 결과를 소개했다.
고 교수는 의사가 환자의 이상 소견 등을 파악하는 데 반해, AI가 질환 분류 체계에 제때 대응할 수 없는 한계를 고려할 때, 아직은 AI가 전문의를 대체하기 쉽지 않을 것이라고 전망했다.
/연합뉴스
이 대표는 이날 서울 구로구 산업교육연구소에서 열린 '2024년 의료 AI 및 디지털 헬스케어 혁신 기술과 미래 전망 세미나'에서 "우리는 데이터를 드러내는 것에 두려움이 있는 것 같다"며 "새로운 연구를 할 때 전임 연구자가 누구였는지조차 파악하기 힘든 게 현실"이라고 말했다.
이 대표는 데이터 양, 속도, 다양성이 빠르게 증가하는 가운데, 디지털 트랜스포메이션(전환)을 통해 '데이터 사일로 현상'을 극복해야 한다고 당부했다.
데이터 사일로 현상은 기업 간 데이터를 공유하지 않아 데이터가 고립되는 것으로, AI가 방대한 데이터를 수집하는 데 제약이 될 수 있다.
이를 위해 디지털 워크플로우(작업 체계)를 구축하고, 후보물질 관리, 디지털 연구 기록, 데이터 분석·스크리닝 실험 등에서 디지털 전환을 이루는 게 중요하다고 강조했다.
이 대표는 "AI 신약 개발 연구를 후보 물질을 빠르게 찾는 것으로만 접근하는데, AI의 잠재성을 편향되게 접근하는 게 아닌가 생각한다"며 "임상 기관 선정, 환자 모집, 데이터 기반의 가상 임상 대조군을 만드는 등 임상 단계에서도 활용할 수 있다"고 말했다.
이미 공개된 데이터와 함께 자체 데이터베이스를 구축하는 것도 중요하다고 강조했다.
이 대표는 "글로벌 제약사는 퍼블릭(공용) 데이터베이스에 인하우스(회사 자체) 데이터베이스를 추가로 가지고 있는 반면, 우리나라 신약 개발 연구소는 대부분 공용 데이터를 활용한다"며 디지털 데이터 분야의 비대칭 문제도 우려했다.
AI를 적용한 의료·헬스케어 제품의 경우, 허가를 받은 후에도 효과를 지속해서 검증할 필요가 있다는 의견도 나왔다.
가톨릭대학교 의과대학 고태훈 교수는 "코로나19 때 나온 데이터를 급하게 학습해 나온 모델은 편향성 등이 제대로 검증이 안 됐다는 연구가 있다"며 "허가된 소프트웨어가 많은 병원에서도 인종, 환자의 생활 환경 등에 따라 문제가 없는지 전향적 검증을 더 해야 한다는 지적이 나온다"고 말했다.
그러면서 AI가 성별·인종·보험 가입 여부 등에 따라 편향된 진단을 내놓았다는 연구 결과를 소개했다.
고 교수는 의사가 환자의 이상 소견 등을 파악하는 데 반해, AI가 질환 분류 체계에 제때 대응할 수 없는 한계를 고려할 때, 아직은 AI가 전문의를 대체하기 쉽지 않을 것이라고 전망했다.
/연합뉴스