의료 영상 분야에서 기초 모델(FMs)이 주목받고 있는 가운데 전문가들은 이 기술이 진단을 혁신적으로 변화시킬 잠재력을 인정하면서도 엄격한 개인정보 보호와 규제 체계 마련을 강조하고 있다. 최근 npj Digital Medicine에 발표된 연구는 이러한 강력한 인공지능(AI) 시스템을 임상적으로 활용하면서도 환자 개인정보 유출 위험을 방지하는 이중적인 도전 과제를 강조했다. 연구는 기초 모델이 혁신을 제공하면서도 개인의 재식별 위험을 방지하기 위해 기술적, 관리적, 규제적 개입이 필요하다고 지적했다.
기술적 보호 장치와 개인정보 보호 문제
이 연구는 의료 영상 분야에서 기초 모델을 도입할 때 발생할 수 있는 주요 기술적 문제를 다루고 있으며, 특히 모델의 출력 결과와 외부 데이터 세트를 결합할 때 재식별 위험이 발생할 수 있다는 점을 지적했다. 연구자들은 현재의 연구가 대상군의 다양성이 제한된 경우가 많아 실제 상황에서 나타날 수 있는 개인정보 위험의 전체 스펙트럼을 반영하지 못할 수 있다고 지적했다. 예를 들어, 기능 제거 또는 주의 집중 맵핑 연구는 모델이 인구통계학적 예측 능력과 개인 식별 능력이 실제로 분리되어 있는지 명확히 해줄 수 있다.
의료 영상 분야에서 기초 모델을 도입할 때 기술적 보호 장치로 기능 분리(disentanglement) 방법이 제안되고 있다. 이 방법은 임상적으로 중요한 패턴을 식별 정보와 분리하여 모델이 질병 표지자에 집중하면서도 민감 정보 노출을 최소화할 수 있도록 한다. 또한, 분산 학습 프레임워크(federated learning)가 중앙 집중형 데이터 유출 위험을 줄이기 위해 기관 간 데이터 분산 저장을 통해 탐색되고 있다. 강력한 개인정보 보호 조치와 함께 생성된 합성 데이터는 모델의 유용성을 유지하면서도 개인 식별 정보를 보호할 수 있다.
이러한 기술적 발전에도 불구하고 연구는 모델의 출력 결과가 외부 데이터 소스와 결합될 때 개인정보 유출이 가장 가능성 있는 상황이라고 경고했다. 이는 실제 상황의 위험을 정확히 평가하고 완화하기 위해 경험적 시뮬레이션과 더 다양한 훈련 대상군이 필요하다는 점을 강조한다. 연구자들은 엄격한 설계와 투명성 없이 기초 모델의 이점이 개인정보 문제로 인해 약화될 수 있다고 주장한다.
정책 및 규제 체계
정책적 관점에서 연구는 AI 특별한 위험을 다루기 위한 법률 개정의 필요성을 강조한다. 미국의 건강보험 이동성 및 보호법(HIPAA)은 기초 모델이 제기하는 독특한 문제를 반영하기 위해 수정이 필요할 수 있다. 유럽연합의 일반데이터보호규정(GDPR)은 데이터 보호를 위한 강력한 프레임워크를 제공하며, 법적, 공정하고 투명한 데이터 처리를 요구한다. GDPR에 따라 개인은 자신의 개인 정보에 접근, 수정, 삭제 또는 이전할 권리가 있으며, 데이터 처리자는 기술적 및 조직적 조치를 통해 준수를 입증해야 한다.
최근 제정된 유럽연합 인공지능법(EU AI Act)은 건강 관련 인공지능 시스템에 대한 데이터 보호의 중요성을 강조하는 또 다른 규제 층을 추가했다. 이 법은 인공지능 알고리즘에 대한 위험 기반 평가를 도입하며, 고위험 시스템에 대해 특정 의무를 부과한다. 예를 들어, 인공지능이 편향적이거나 차별적이지 않도록 보장해야 한다. 또한, 일반 목적 인공지능 모델의 제공자는 훈련 데이터 요약, 기술 문서 및 위험 완화 전략을 공개해야 한다. 이 법은 특정 인공지능 사용을 금지하며, 예를 들어, 엄격한 승인 없이는 공공장소에서 실시간 원격 생체 인식을 금지한다.
인공지능법과 병행하여 2024년 말 발표된 유럽연합 사이버 안전법(CRA)은 디지털 제품, 특히 의료 도구에 대한 엄격한 사이버보안 요구사항을 제시한다. CRA는 제조사가 소프트웨어 구성 목록을 유지하고, 제품의 취약점을 해결하며, 사고를 24시간 이내에 보고하도록 요구한다. 제품은 중요도에 따라 분류되며, 더 중요한 시스템에는 엄격한 적합성 평가가 적용된다.
학문적 협력과 실제 적용 사례
이 연구는 AI 기반 의료 분야에서 규제자, 연구자, 임상의 간의 교차 학문적 협력을 강조한다. 기초 모델에서 개인정보와 공정성을 보장하려면 기술 혁신뿐만 아니라 임상의, 데이터 과학자, 윤리학자 및 법학 전문가 간의 의도적인 협력이 필요하다.
효과적인 협력은 세 가지 핵심 원칙을 중심으로 이루어져야 한다. 첫째, 모델 개발 과정에서 도메인 전문가의 참여를 포함하는 공동 설계 프로토콜, 둘째, 공동 데이터 사용 협약 및 윤리 검토 위원회와 같은 공유 관리 프레임워크, 셋째, 모델 사용자와 개발자 간의 지속적인 피드백 루프. 이러한 구조는 공정성 영향을 반복적으로 평가하고, 완화 전략이 투명하게 보고되도록 한다.
이러한 원칙을 실제 적용한 사례로, 다기관 눈 질환 컨소시엄이 희귀한 망막 신경 퇴행성 질환의 진행을 예측하는 개인정보 보호 기초 모델을 개발한 것이 있다. 이 모델은 사이트 간 분산 학습을 통해 환자 데이터를 중앙 집중하지 않고 훈련했다. 데이터는 PII(개인 식별 정보) 제거, 차별적 개인정보 보호 변환 및 최소화를 거쳐 필수적인 임상 특징만 유지했다. 기능 분리 모듈은 질병 관련 신호를 민감한 속성과 분리하여 일반화 능력을 향상시키고 개인정보 위험을 줄였다.
추론 과정에서는 입력 정화를 통해 식별 정보를 차단했으며, 차별적 개인정보 보호 기술을 통해 개인 데이터의 영향을 제한했다. 이 실제 적용 사례는 기술적 및 관리적 전략이 환자 개인정보를 보호하면서도 의료 인공지능을 발전시키는 데 어떻게 운영될 수 있는지를 보여준다.
규제 환경이 계속해서 진화함에 따라 연구는 재식별 위험을 완화하기 위한 종합적인 전략의 필요성을 강조한다. 기능 분리와 같은 기술적 보호 장치가 우선적으로 고려되어야 하며, 임상적으로 중요한 정보를 분리하여 보호할 수 있어야 한다.
Comments
No comments yet
Be the first to share your thoughts